生成AIの急速な発展とともに、ますます多くの産業とユーザーがこのツールに頼るようになっている。市場シェアで最高のGoogle検索エンジンでさえ、自社AIツールを強制的に組み込んでいる。しかし、このテクノロジー企業のCEOは、AIの成果を過度に信頼すべきではないと皆に呼びかけた。この発言は、ユーザーに事実確認を求める前に、システムの信頼性を高めることに集中すべきだと反論する専門家の声を引き起こした。
CEOのサンダー・ピチャイ氏はBBCのインタビューで、AIモデルは「最先端の」技術を使用しているにもかかわらず、多くの誤りが発生しやすいと強調し、ユーザーがAIの使い方を学び、それらを得意とする分野で活用するべきだと述べた。また、「彼らの言うことを盲信しない」正しい認識も持つべきだと強調した。
AIの限界があるからこそ、Googleの「豊かなエコシステム」の重要性が際立つとピチャイ氏は述べている。AI技術だけに頼るのではなく、人々は同時にGoogle検索を使用し、正確な情報を提供する他の製品も利用することができる。
実際にGoogleのAIツールGeminiには、ユーザーにエラーが発生する可能性を明確に通知する「免責条項」が表示されている。

Googleは、免責条項やユーザーに対する独自の事実確認の呼びかけを通じて、一部の責任を分担しようとしているが、多くの専門家は、テクノロジーの巨人がユーザーに「事実確認」(fact-check)を任せるべきではないとして、その代わりにシステムの信頼性の向上を図るべきだと考えている。
ロンドン大学クイーンメアリー校のジーナ・ネフ教授は、「これらのシステムが回答を虚構または創造することがあり、彼らの目的は我々を喜ばせることに他ならない」と述べた。
「次にどの映画を見るべきかと尋ねる場合には、大した影響はないだろう。しかし、健康、メンタルヘルス、科学、ニュースに関する敏感な問題を尋ねるときは、状況は全く異なる。」
ジーナ氏はGoogle上層部がユーザーに独自のチェックを求め、責任を消費者に転嫁しようとすることを厳しく非難し、「この会社は現在、試験を自ら審査しつつ、学校を焼き尽くそうとしている」と批判した。

GoogleがAIを自社検索エンジンに導入したのは、ChatGPTが成長する中、このプラットフォームがオンライン検索の王座を脅かす懸念から市場競争力を確保するためだった。今年5月からAIモードを強制的に優先順位に設定し、検索結果にAIロボットが生成した解説や説明を提供している。
この新しくて特異な「ブラックテクノロジー」は、著しく不安定で不正確な回答のため、世界中のユーザーから批判と嘲笑を浴びている。誕生や死亡の日時を誤り、異なる事件を取り違え、偽の健康ガイドラインやレシピを編み出すことがあり、利用者を驚愕させることもある。
BBCの研究によれば、OpenAIのChatGPT、マイクロソフトのCopilot、GoogleのGeminiといった、最もよく知られた3つのチャットボットは、関連ニュースの報告をまとめる際に、全く関連のないまたは「極めて不正確」なコンテンツを含むことがある。ユーザーがその基礎を完全に理解していない場合、偽の回答を正しいものと見なしてしまう傾向がある。

ピチャイ氏は、AIへの投資の成長は素晴らしい瞬間であると述べながらも、現行のAIブームには「非合理的」な要素があると指摘した。これは、1996年にアラン・グリーンスパン前FRB議長がインターネットバブルの「非合理的な熱狂」に警告を発したことを思い起こさせる。
AIテクノロジー企業の評価が過去数か月で急上昇し、企業が驚異的な投資額を発表するにつれ、シリコンバレー内外ではすぐにバブルが崩壊するのではないかという懸念が広がっている。GoogleがAIバブルの崩壊から逃れることができるかどうかを尋ねられた際、ピチャイ氏は、「我々を含め、逃れられる企業はないと思う」と率直に述べた。
それでも、他社よりも強い自信があるとし、Googleの体制のもとで、チップ、YouTubeのデータ、言語モデルを通じて自社システムやエコシステムを維持することができ、経済的な激動を乗り越えていけると述べた。
編集:佐野華美
世界を、台湾から読む⇒風傳媒日本語版X:@stormmedia_jp
















































