AMAZON でお買物

“賢すぎるAI”の危険な落とし穴—なぜ OpenAI の最新モデルは「思考力」が上がるほど「嘘」をつくのか

AI

スマートなのに間違える──それって、まるで…

あなたの目の前に、知識も頭の回転も抜群な同僚がいるとします。
議論もロジックも完璧。
だけど、ある日、その人が「東京タワーは大阪にあるんだよ」と堂々と言ったら……あなたは驚き、戸惑い、もしかしたらちょっと信じてしまうかもしれません。

そんな”不思議な違和感”を、今のAIが私たちに投げかけています。

OpenAI が開発した最新のAIモデル「o3(オースリー)」と「o4-mini(オーフォーミニ)」──これらのモデルは「リーズニング(推論)」に長けたAI。
でもその進化の裏で、私たちは今まで以上に”信じてもいいのか?”という問いに直面しています。

「幻覚」って、どういうこと?

AI界隈でよく使われる「幻覚(hallucination)」という言葉。
これは、AIが”それっぽいけど実は事実ではない情報”を自信満々に話してしまう現象を指します。

たとえば、実在しない論文を紹介したり、存在しない人物の発言を引用したり。
まるで夢の中のように、AIが”現実を勝手に創作してしまう”のです。

ここで興味深いのは「o3」と「o4-mini」は過去のモデルに比べて論理的思考力が大幅にアップしているにもかかわらず、この”幻覚”を起こす頻度が増えてしまったという点。
OpenAI の内部テストによると、o3 は PersonQA(人物に関する知識の正確さを測るベンチマーク)において 33% の質問に対して幻覚を起こし、これは以前のモデルo1と o3-mini の約2倍の幻覚率です。
o4-mini はさらに悪く、48% の時間で幻覚を起こしました。

賢くなったのに、間違いが増える?──皮肉なAI進化の真実

この現象、まるで“高性能ナビが堂々と間違った道を案内する”ようなもの。

方向音痴のナビなら「信用できないな」と思いますが、性能のいいナビが「ここを曲がって」と自信たっぷりに言えば、つい従ってしまいますよね。

「o3」も同じ。
AIは、答えを出すプロセス──つまり”どう考えたか”を言語で説明しながら進めるようになりました。
これによって「考えている風」の説得力が高まり、人間は”AIの言葉”をますます信じやすくなってしまいます。

でもその過程そのものが間違っていたら?
自信満々な誤答は、ただの間違いよりもずっと危ういのです。
非営利AIリサーチラボの Transluce の調査によると、o3はときに答えに至るプロセスで実行していない行動を実行したと主張することがあります。
例えば「ChatGPT の外部」で 2021 年の MacBook Pro にコードを実行し、その数字を回答にコピーしたと主張することがありました。
実際にはo3にはそのような能力はありません。

なぜ”もっと考えるAI”が、もっと間違うのか?

OpenAI の技術報告書によると、o3と o4-mini は「推論モデル」として、従来の「非推論」モデル(GPT-4o など)と比較して、コーディングや数学関連のタスクでは優れた性能を発揮します。
しかし「全体的により多くの主張をする」ため「より正確な主張だけでなく、より不正確な/幻覚的な主張」も増えるようです。

しかしここに落とし穴があります。

AIは、自分の思考が正しいかどうかを「本当に」検証する力がない。
つまり”考える力”はあっても”疑う力”がないのです。

この違いはとても大きい。
人間なら「これで合ってるかな?」と立ち止まる瞬間があります。
でもAIは、疑うことなく一直線。
その暴走が、幻覚を生み出してしまうのです。

私たちは、どうAIと付き合っていくべき?

AIを信じすぎてもいけない。
かといって、疑いすぎても意味がない。

じゃあ、どうすればいいのか?

それは、AIに”賢さ”を期待するのではなく”賢さの限界”を知っておくことです。

たとえば、o3のようなAIは、複雑な概念を整理したり、創造的なアウトプットを生み出したりするのが得意。
でも「事実」の確認には、人間の目が必要不可欠です。
幻覚はAIモデルが興味深いアイデアを生み出し「思考」において創造的である助けになる可能性がありますが、正確さが最も重要な市場ではビジネス向けに販売するのは難しくなります。
例えば、法律事務所はクライアントの契約に多くの事実誤認を挿入するモデルに満足しないでしょう。

今こそ私たち人間が“AIを使いこなすリテラシー”を手に入れる時なのです。

おわりに:「疑う力」は、AI時代の新しい知性

モデルの精度を向上させる有望なアプローチの一つは、ウェブ検索機能を与えることです。
OpenAI の GPT-4o はウェブ検索機能により、SimpleQA(別の精度ベンチマーク)で 90% の精度を達成しています。
潜在的に、検索は推論モデルの幻覚率も改善する可能性があります—少なくともユーザーがプロンプトを第三者の検索プロバイダーに公開してもよい場合。

AIはどんどん進化しています。
私たちが目にしているのは、かつて夢だったような”考える機械”の誕生です。

でも、いくら考えるようになったとしても、それが”正しい”とは限らない。
過去1年間、より広範なAI業界は、従来のAIモデルを改善する技術が収穫逓減を示し始めた後、推論モデルに焦点を移しました。
推論は、トレーニング中に膨大な量の計算とデータを必要とせずに、さまざまなタスクでモデルのパフォーマンスを向上させます。
しかし、推論によってより多くの幻覚が発生する可能性もあるようです—これは課題となっています。

だからこそ、必要なのは「この答え、本当に合ってる?」と問いかける“人間らしい知性”

未来をつくるのは、AIではなく、それを疑い、選び、使いこなす私たち自身なのかもしれません。

参考:OpenAI’s new reasoning AI models hallucinate more

コメント

タイトルとURLをコピーしました