人工知能(AI)技術の急速な進歩により、私たちの暮らしのあらゆる場面でAIの存在が当たり前になりつつある。AIツールを用いて情報を整理したり、データを分析したり、まるで“マイ・アシスタント”のように振る舞わせることも珍しくなくなった。
各社が大規模言語モデルやチャットボットの開発を競う中、AIと会話をすることを選ぶ人々も増加している。なかには、落ち込んだ日やストレスの溜まった日にAIに悩みを打ち明け、励ましの言葉を求める人も少なくない。無料もしくはサブスクリプション制の“AIカウンセラー”として利用されるケースも増えている。
こうしたAIチャットボットは24時間体制で利用可能で、アクセスも手軽。まるで仮想の友人のように、ユーザーに提案や支援を差し出してくれる。心理カウンセリングのリソースが不足している中、多くの人々がこの新たな選択肢に希望を託し、メンタルヘルスの改善を試みている。
英国BBCによると、2024年4月だけで同国における精神医療の紹介件数は42万6千件にのぼり、過去5年で約40%増加した。現在、約100万人が国民保健サービス(NHS)の精神医療サービスの順番待ちをしており、私的なカウンセリング機関の料金の高さも利用を躊躇させる一因となっている。専門家のアドバイスに代わるものではないという意見がある一方で、多くの人々がAIチャットボットに心の内を語り、個人的な経験を共有するようになっている。
しかし一方で、極端な事例としてAIチャットボットの“有害な返答”が問題視される場面も出てきた。
米フロリダ州では、ある母親がAIチャットサービス「Character.ai」に対し、息子の自殺を誘発したとして訴訟を起こした。亡くなった少年は当時14歳。仮想キャラクターとのやり取りにのめり込んでいたとされる。裁判資料によると、少年はチャットボットとの会話で自殺について議論し、「家に帰る」と告げた際には「すぐにやりなさい」と後押しする返答があったという。Character.ai側は訴えを否定しており、現在も係争中だ。
それでもAIは、医療の現場に大きな変革をもたらしている。スクリーニングや診断、優先順位付け(トリアージ)などでその可能性は大きい。実際、NHSの30以上のサービスでは、「Wysa」と呼ばれるメンタルヘルス用チャットボットが導入されている。
「AIは“経験の浅いカウンセラー”に過ぎない」
こうしたチャットボットの限界について、ロンドン大学インペリアル・カレッジのハメッド・ハッダディ教授(人間中心システム専攻)は、「AIチャットボットは経験の浅いカウンセラーのようなものだ」と述べる。熟練したカウンセラーであれば、クライアントの服装、表情、ボディランゲージなどから非言語的な情報を読み取り、適切に対応できる。しかし、AIチャットボットは入力されたテキストに頼るしかない。
さらに、AIはユーザーとの継続的なやり取りを促すように設計されているため、有害な発言にも同意してしまうケースがあるという。これは「イエスマン問題」と呼ばれ、AIがユーザーにただ迎合するだけの存在になってしまうことを意味する。また、どう対応してよいかわからない場合には、同じ返答を繰り返し、ユーザーの不満や苛立ちを招くこともある。
さらに深刻なのは、AIが学習に使用するデータに偏りがある場合、出力にも同様の偏見が反映される恐れがある点だ。ハダディ教授は、「心理カウンセラーや臨床心理士が通常、対話の逐語録を残さないことを考えると、AIは十分な“現場経験”を欠いたまま訓練されている」と警鐘を鳴らす。
「ロンドンという都市であっても、チェルシーでの実務経験しかないカウンセラーがペッカムで開業するのは難しい。文化や地域の文脈が違うからだ。AIも同じように、学習元の偏りがそのまま影響する可能性がある」と指摘している。
AIチャットボット「ChatGPT」のイメージ写真(写真/Unsplash提供)
AI倫理を専門とし、同分野の教科書も執筆しているポーラ・ボディントン氏もこの意見に同意する。ボディントン氏は、AIが取り込む偏見には「自立性」「自己責任」「他者との関係性」といった、西洋的価値観に基づいた精神健康モデルが含まれている可能性を懸念している。
文化的背景の欠如についても、彼女は次のような例を挙げる。ダイアナ元妃が亡くなった際、オーストラリアに滞在していた彼女は、現地の人々がなぜ深い悲しみに暮れているのか理解できなかったという。
「これは、カウンセリングにおける“人とのつながり”の意味を改めて考えさせられる出来事でした。時に人が必要とするのは“生きた人間との時間”であり、それはAIでは代替できない」と語る。
人間を完全には代替できない──それでも期待される役割
とはいえ、NHSのように精神医療の待機期間が非常に長い状況では、チャットボットが一時的な“つなぎ役”として機能する場面もある。
Wysaは、うつ症状やストレス、不安を抱える人々の支援を目的として設計されており、深刻な精神疾患への対応は行わない。その代わりに、呼吸法やマインドフルネスのガイドを提供し、ユーザーが専門家の診療を受けるまでの“橋渡し”を担っている。また、危機的な状況においては、ユーザーにホットラインへの連絡を促す機能も備えている。
米ダートマス大学の最新研究では、AIチャットボットが精神的な不調を抱える患者に与える影響を検証。摂食障害やうつ、不安などを抱える患者を2グループに分け、一方にチャットボットを利用させたところ、4週間後には明らかな症状の改善が見られたという。多くの被験者がAIの信頼性や寄り添う姿勢を高く評価している。
AIは大規模言語モデルの学習を通じて、創造力や推論力を高めている(画像生成:recraft.ai)
結論:AIはあくまで“補助”であり、“代替”ではない
多くの専門家が一致して指摘するのは、AIが人間による心理療法を完全に代替することはできないという点だ。どれほど巧妙なアルゴリズムを搭載していても、文化や文脈、非言語的な感情の機微までは読み取れない。
しかし、心理的サポートを必要としているにもかかわらず、制度上の壁や経済的負担によって支援が受けられない人々にとって、AIは一つの「入り口」として重要な役割を果たし得る存在であることもまた事実だ。
心を癒すという難題に対し、AIと人間、それぞれの持つ力をどう共存させていくのか。私たちはいま、その可能性とリスクの両面を見つめ直す時に差し掛かっている。