「AIって、こんな簡単なこともできないの?」
ある日、あなたはふと疑問に思うかもしれません。
ChatGPT や Bard のようなAIは文章を理解し、翻訳し、詩すら書けるのに──なぜ、4ケタ×4ケタのかけ算でミスをするのでしょうか?
実はこれは、AIの「能力不足」ではなく「学び方」に原因があるのです。
今回ご紹介するのは、その謎を解き明かした論文「Why Can’t Transformers Learn Multiplication?」。
研究チームは、AIがなぜかけ算を苦手とするのか、そしてどうすれば”できるようになる”のかを、まるでエンジンを分解するように徹底的に解明しました。
“見た目は単純、されど奥深い”──かけ算の落とし穴
たとえば、12 × 34 = 408 という計算。
私たちは「一の位から順にかけて足していく」といった手順を無意識にこなしています。
でもAIにとっては、この「途中の計算」がブラックボックス。
AIに答えだけを教えても「どこからその 408 が出てきたのか」がわからないのです。
人間で言えば「答えを見せられて、式を立てずに正解を出せ」と言われるようなもの。
この非現実的な学習方法が、AIのかけ算を阻んでいたのです。
鍵を握るのは「途中の思考」──ICoT という新しい学習法
研究チームは、ある工夫を試しました。
それがImplicit Chain-of-Thought(ICoT:暗黙的思考連鎖)という方法です。
ICoT では、はじめに計算の途中経過(部分積や繰り上がり)までAIに見せておき、訓練の各段階で徐々にそれを減らしていきます。
たとえば…
12 × 34 = 48 + 360 (408) = 408このように「考え方を教える」ことで、AIが途中のステップを自分で”内面化”できるように促すのです。
この手法を使ったモデルは、なんと 100% の正答率で 4×4 桁のかけ算をこなすようになりました。
なぜ普通のAIは失敗するのか?
逆に、ICoT なしで普通に訓練した AI(SFT: Standard Fine-Tuning)はどうかというと…
- 初めの桁(c0, c1)と最後の桁(c7)は正しく学習できる
- でも、真ん中の桁(c3〜c6)はまったく覚えない!
なぜなら、これらの桁を計算するには、遠くの数字の組み合わせ(例:a₂×b₁ など)を同時に把握しないといけないから。
つまり「長距離の依存関係」があるのです。
しかし、今のトランスフォーマー型AIは、こうした長距離の情報を自然に学習するのが苦手。
途中で学習が行き詰まり、局所的な最適解(local optimum)にとどまってしまうのです。
AIが”考える力”を手に入れるためのヒント
では、どうすればAIが「かけ算の本質」を理解できるのでしょうか?
研究チームは2つの突破口を見つけました。
① 木のように情報をたどる「注意の構造」
ICoT モデルの中では、注意(Attention)機構が二分木のような有向非巡回グラフ(DAG)を形成し、必要な数字のペア(aᵢ×bⱼ)をたどっていました。
第1層で部分積を各タイムステップに「キャッシュ」し、第2層でそれを「取り出す」という仕組みです。
これはまるで、計算を整理して覚える人間のノートのような構造です。
② 数字を”形”としてとらえる「幾何学的な発見」
ICoT モデルの内部では、数字が五角形の柱(pentagonal prism:五角柱)のような構造で並んでいました。
これはフーリエ変換(周期性を持つ表現)を使って数字を表現していることを示しています。
さらに、注意ヘッドはミンコフスキー和(Minkowski sum)を使って部分積を実現していることも判明しました。
つまり、AIは「数字の意味」を幾何学的な形として理解し、効率よく計算する方法を自ら編み出していたのです。
「ちょっとした工夫」で劇的に変わるAIの能力
もうひとつ注目すべきは、ICoT のような複雑な工夫をせずに、もっと簡単にかけ算を教える方法も成功したことです。
それは“途中の合計(ĉₖ)”を予測させる補助的な損失関数を使う方法。
この方法でも、AIは真ん中の桁をしっかり学び、正答率 99% を達成しました。
つまり──
「AIはダメ」ではなく「AIにどう教えるかがすべて」
ということが、明確になったのです。
まとめ:AIが”本当に賢くなる”ために必要なこと
この研究が教えてくれたのは、たったひとつの事実。
✨ AIが「答えを出す力」ではなく「考える力」を身につけるには”教え方”がすべて。 ✨
かけ算のような一見シンプルな問題であっても、見えない複雑さ=長距離の依存関係がある。
そして、その関係性をAIが学ぶには、人間のように「途中の考え方」を伝えることが重要だということ。
興味深いのは、モデルを大きくするだけでは解決しないという点です。
12層のモデルでも、標準的な訓練方法では同じように失敗してしまいます。
重要なのは、正しい「帰納的バイアス」を与えることなのです。
これは教育にも通じます。
ただ正解を教えるのではなく「どうやってたどり着くか」を共に考える。
AIも、私たち人間と同じように「考え方」を育てる必要があるのです。
最後に:未来のAIに向けて
もし今後「なぜAIはあの問題を間違えたんだろう?」と疑問に思うことがあれば──それはAIが”まだ学んでいない”だけなのかもしれません。
そして、学び方さえ変えれば、AIはもっと賢くなる。
この研究は、その希望の光を私たちに示してくれました。
コメント