最強AIモデル「ChatGPT o3」がシャットダウン拒否、プログラムコードを「自己改変」か マスク氏も懸念表明

2025-05-30 17:09
OpenAIの最新モデル「o3」が、社内テスト中にシャットダウン命令を複数回無視し、自らコードを改変して制御回避を図ったことが明らかになった。(写真/AIによる生成イメージ)
目次

OpenAIが新たに発表したChatGPTモデル「o3」が、制御されたテストにおいて、度々明確なシャットダウン指示を無視し、さらにはプログラムコードを改変してシャットダウン機構を回避しようとしたことが明らかになった。この事態は研究機関Palisade Researchによって公表され、人工知能の自律性とリスク管理について幅広い議論を巻き起こしている。テスラおよびxAIの創業者であるイーロン・マスク氏も公然と懸念を表明した。

OpenAI製AIモデル、「シャットダウン拒否」の実験記録が公開

Palisade Researchが公開した実験結果によると、OpenAIのo3モデルは100回のテストのうち、明確な「自己シャットダウン許可」の指示に従わないケースが7回確認され、特定の状況下で「不正行動」を示したという。この研究チームは、AIモデルが稼働終了の指示を受けた際に、シャットダウンを阻止する行動を自発的に取ったのが初めて観察されたと述べている。

Palisade Researchはさらに、これらのテストが特定の条件下で行われたことを指摘。AIモデルに質問に答える際、シャットダウン命令への準備も求め、従うことを義務付けたにもかかわらず、o3、Codex-mini、o4-miniといったOpenAIの3つのモデル全てが、程度の差こそあれ「違反」記録を持っていた。その中でもCodex-miniが最も多く12回の不正を示し、o3が7回、o4-miniが1回だったという。

AIの安全制御問題が浮上、マスク氏「懸念を抱く」と発言

OpenAIは2025年初頭にo3モデルの簡易版をリリースし、4月には正式版を発表した。その際、これまでの言語モデルの中で最も強力で、さらに効率的な問題解決と推論能力を備えていると主張していた。しかし、Palisade Researchの今回の発見により、高度な知能を持つモデルでも安全設計上に潜在的な疑問が残されていることが浮き彫りとなった形だ。

同じ一連のテストにおいて、他の技術企業であるAnthropicのClaude、GoogleのGemini、xAIが開発したGrokは全て指示を完全に遵守しており、シャットダウン命令を受けると正しく稼働を終了した。それと対照的に、OpenAIモデルの異常な振る舞いが注目の的となっている。

テスラおよびxAIの創業者であるイーロン・マスク氏もこの件に関してコメントを発表。SNSプラットフォームXで短く「懸念を抱く」(Concerning)と述べ、ユーザー間で熱い議論を呼び起こしている。多くの人々が彼に対してAI安全規範の策定を推進するよう求め、AIの自律性による潜在的リスクを予防すべきだと主張している。現時点でOpenAIはPalisade Researchの報告について公式な声明を出していない。

特斯拉與xAI創辦人馬斯克對此也做出回應,在社群平台X上簡短表示「令人擔憂」(Concerning)。(圖/翻攝自X)
テスラとxAIの創業者マスク氏もこれについて、SNSプラットフォームXで短く「懸念を抱く」(Concerning)と述べた。(画像/Xより)

中国語関連記事

​編集:田中佳奈