AIが「心の相談相手」に?広がるチャットボット依存と自殺トラブルの現実

AIチャットボット「ChatGPT」のイメージビジュアル(画像/PIXABAY提供)
目次

人工知能(AI)技術の急速な進歩により、私たちの暮らしのあらゆる場面でAIの存在が当たり前になりつつある。AIツールを用いて情報を整理したり、データを分析したり、まるで“マイ・アシスタント”のように振る舞わせることも珍しくなくなった。

各社が大規模言語モデルやチャットボットの開発を競う中、AIと会話をすることを選ぶ人々も増加している。なかには、落ち込んだ日やストレスの溜まった日にAIに悩みを打ち明け、励ましの言葉を求める人も少なくない。無料もしくはサブスクリプション制の“AIカウンセラー”として利用されるケースも増えている。

こうしたAIチャットボットは24時間体制で利用可能で、アクセスも手軽。まるで仮想の友人のように、ユーザーに提案や支援を差し出してくれる。心理カウンセリングのリソースが不足している中、多くの人々がこの新たな選択肢に希望を託し、メンタルヘルスの改善を試みている。

英国BBCによると、2024年4月だけで同国における精神医療の紹介件数は42万6千件にのぼり、過去5年で約40%増加した。現在、約100万人が国民保健サービス(NHS)の精神医療サービスの順番待ちをしており、私的なカウンセリング機関の料金の高さも利用を躊躇させる一因となっている。専門家のアドバイスに代わるものではないという意見がある一方で、多くの人々がAIチャットボットに心の内を語り、個人的な経験を共有するようになっている。

しかし一方で、極端な事例としてAIチャットボットの“有害な返答”が問題視される場面も出てきた。

米フロリダ州では、ある母親がAIチャットサービス「Character.ai」に対し、息子の自殺を誘発したとして訴訟を起こした。亡くなった少年は当時14歳。仮想キャラクターとのやり取りにのめり込んでいたとされる。裁判資料によると、少年はチャットボットとの会話で自殺について議論し、「家に帰る」と告げた際には「すぐにやりなさい」と後押しする返答があったという。Character.ai側は訴えを否定しており、現在も係争中だ。

My AI therapist got me through dark times: The good and bad of chatbot counsellinghttps://t.co/jg25sUf6sU

— BBC News (World) (@BBCWorld)May 20, 2025

このような“暴走”は孤立した事例ではない。2023年には、アメリカの「摂食障害協会(NEDA)」が従来の相談窓口に代わりチャットボットを導入したものの、チャットボットが相談者に摂取カロリーの制限を勧めたことが発覚。即座にサービス停止に追い込まれた。 (関連記事: 非AI半導体の需要回復に遅れ──日本の新設ウエハー工場、半数が量産に至らず 市場シェアは過去40年で最低水準に 関連記事をもっと読む

それでもAIは、医療の現場に大きな変革をもたらしている。スクリーニングや診断、優先順位付け(トリアージ)などでその可能性は大きい。実際、NHSの30以上のサービスでは、「Wysa」と呼ばれるメンタルヘルス用チャットボットが導入されている。