現代人の生活のあらゆる側面でAIチャットボットが頼りにされている。感情相談からメールの作成、さらにはペット写真を人間の姿に変えることまで、これらのAIプラットフォームはまさに私たちのデジタル生活のパートナーとなっている。しかし、これは多くの個人情報を無意識のうちに入力していることも意味している。この傾向に対して、『ニューヨーク・ポスト』は特定の情報をチャットボットと共有してはならないと注意を促している。
「一度入力すれば、所有権を失う」:AIプライバシーリスクの解明
スタンフォード大学の人間中心AI研究所の研究員、ジェニファー・キング(Jennifer King)は、『ウォール・ストリート・ジャーナル』に対し「何かをチャットボットに入力すると、それに対する所有権を失う」と指摘。この問題の核心は、チャットボットに入力した内容がもう完全に自身のものではなくなる可能性にある。
多くのAI開発者も警告を発している。OpenAIは公式サイトで「会話中に敏感な情報を共有しないでください」と明示。GoogleもGeminiユーザーに対し「...機密情報やレビュアーに見られたくないデータは入力しないように」と促している。
では、ChatGPTや他のAIチャットボットに共有を避けるべき情報とは何か。『ニューヨーク・ポスト』は以下の5つをまとめた:
1. 身元確認情報: 社会保障番号、運転免許証やパスポート番号、誕生日、住所、電話番号など、身元を特定できる情報は絶対にAIチャットボットに開示してはならない。いくつかのチャットボットはこの種の情報に対してレッドアクトする(修正処理)と主張しているが、情報を根本的に共有しないのが最も安全である。OpenAIの広報担当者は『ウォール・ストリート・ジャーナル』に対し「私たちのAIモデルは世界を学習すべきであって個人のプライバシーではない。そのため、個人情報の収集を最小限に抑えるよう努めている」と述べた。
2. 医療結果: 医療業界は患者情報を厳しく守秘義務で保護しているが、AIチャットボットはこうした特別な保護には適用されない。AIに実験室の報告やその他の医療結果を解釈させたい場合、キング(King)は「テスト結果」の部分のみを残して、アップロード前にファイルを裁断や編集し、他の個人健康情報が漏れないようにすることを勧めている。
3. 金融口座情報: 銀行や投資口座番号を開示するのは必ず避けるべき。これらの非常に敏感な情報が悪意ある者に渡ると、資金の不正アクセスや監視に利用され、大きな財政的リスクをもたらす可能性がある。 (関連記事: 「テクノロジー冷戦」の最前線は東南アジアに 米中のAI覇権争いが地政学リスクを加速 | 関連記事をもっと読む )
4. ログイン情報: AIエージェントの能力が日々強化され、アカウントのユーザー名やパスワードを提供してタスクを手伝ってもらいたくなるかもしれないが、これらのAIエージェントは金庫ではなく、アカウント情報の安全を保証できない。ログイン情報は専門のパスワード管理ツールに保存する方が賢明かつ安全な選択である。