DeepSeekの実態とは?「オープンソース」の嘘と安全性問題―台湾の計算能力不足が浮き彫りに

DeepSeekとOpenAIはAI分野を代表する企業。(資料写真、AP通信)
目次

低価格AIモデルが市場を席巻し、計算能力の限界効用はすでに底を打ったのか。今年初めに登場したDeepSeekは、多くの企業家を活気づけ、AIアプリケーションの時代がついに到来すると考えさせた。しかし、一ヶ月が経過した今も、「大量のAIアプリケーションの開花」は見られない。その間に何が足りなかったのか。実は、DeepSeekに対する見方は楽観的すぎたのかもしれない。台湾大学電気工学科の李宏毅教授は、DeepSeekの意義は企業がAIを理解し、アプリケーションのイマジネーションを刺激することにあると分析している。

DeepSeekと以前のAIモデルとの違いについて、李教授はDeepSeek-R1の大きな特徴として推論プロセスを公開していることを挙げている。R1はDeepSeekが発表した推論モデルであり、同社の現在最も有名なAI製品だ。ユーザーはR1との対話中に、モデルがどのように段階的に問題を考え、検証し、最終的に回答を生成するかを観察できる。李教授は「どのように考えているかを教えてくれ、時には自分の元の考えを否定することさえある...平たく言えば、脳内劇場のようなものだ」と表現している。

DSはAIが人間の誘導なしに「思考を学習できる」ことを証明

このような反省や検証の能力は「reasoning(推論)」と呼ばれるが、R1が初めてではない。昨年8月にOpenAIが最初の推論モデル「Strawberry(ストロベリー)」を発表し、同社が昨年末に発表したo1正式版は、R1登場以前、世界最強の推論モデルであった。

しかし、OpenAIのモデルはオープンソースではなく、外部からその内部動作を理解することが難しい。o1の中には思考と検証を担当する異なるモデルがあり、最終的に一つの答えにまとめられるのではないかという議論もあった。一方、R1は回答を生成する前に思考プロセスを公開しており、これが研究者がAIの進化プロセスを理解するのに役立っている。

OpenAI是生成式AI機器人ChatGPT的創造者。(美聯社)
OpenAIのモデルはオープンソース化されておらず、外部からその内部動作を理解することが困難である。(資料写真、AP通信)

さらに重要なのは、R1が強化学習(Reinforcement Learning, RL)のみを通じて、大量の人工的なラベル付けデータを準備することなく、自己反省と推論能力をモデルに持たせることができることを証明したことだ。

従来のAIトレーニングプロセスは3段階に分かれており、最後には人工的なラベル付けデータを使用してファインチューニング(fine-tune)を行い、AIの「学習」を助ける必要があった。しかし、研究者はAIが「どのように思考能力を生み出すか」を明確に理解していなかった。今回、DeepSeekはファインチューニングプロセスを経ずにR1をリリースしたにも関わらず、様々なベンチマークテストでo1に近い性能を示した。 (関連記事: DeepSeekの奇襲で2億ドルが蒸発!中国が米国のビッグ・テック7社を複製中 関連記事をもっと読む

騙されないで:オープンソースは完全な透明性を意味せず、DSのコストは深刻に過小評価されている

李教授によれば、DeepSeekの成果により研究者は「reasoningを実現するためには強化学習だけで可能である」ことを知ることができた。彼らの発表から、チームは強化学習、つまりRLの方法だけを通じて、モデル自体がこの種の推論・検証能力を持つようになることがわかる。