もし、あなたのポケットにしまえるスマートフォンの中に、ChatGPT クラスの高性能AIが常駐し、オフラインでも気軽に話しかけられる――そんな未来を想像したことはあるでしょうか。
ほんの数年前までは夢物語としか思えなかったこの光景が、今ついに手の届くところまで近づいてきました。
しかも突破口となったのは、最新鋭の量子コンピューターそのものではなく「量子の発想をヒントにした圧縮」という、一見地味な技術だったのです。
“重たいAI”が抱えるモヤモヤを、根本から解決する発想
生成AIブームが巻き起こる一方で、導入を検討する企業や開発者が最初にぶつかる壁は、いつもコストとスピード、そして電力消費です。
数十億、数百億というパラメータを誇る大規模言語モデルは、いわば底なしに食欲旺盛な大食漢。
GPU サーバーを何台も並べる巨艦システムか、クラウド課金とにらめっこしながらの運用か――いずれにしても、財布にも環境にも重い負担を強いる現実は変わりません。
スペインのスタートアップ、Multiverse Computing が開発した「CompactifAI(コンパクティファイ)」は、その”重さ”の問題を根本からひっくり返す発想で誕生しました。
量子物理の計算手法として知られる「テンソルネットワーク」を応用し、モデル内部に潜む無駄な重複や絡まりをほどいて、必要な情報だけをぎゅっと詰め直す――たとえるなら、巨大な魔法瓶にAIのエッセンスを凝縮して、容量は減らしても熱量は逃がさない、そんなイメージです。
Multiverse によれば、この手法によってモデルサイズを最大 95% も削減できるうえ、推論速度は従来比で 4~12 倍、クラウド利用にかかる費用は半分以下に抑えられるケースもあるといいます。
量子物理と金融工学――異色のタッグがもたらしたブレイクスルー
CompactifAI を生み出したのは、量子物理学者のロマン・オルス教授と、金融業界で腕を磨いたエンリケ・リサソ・オルモス CEO という、いささか風変わりなコンビです。
オルス教授は、サンセバスチャンにあるドノスティア国際物理センターでテンソルネットワーク研究を牽引してきた人物。
リサソ・オルモス CEO は複数の数学学位を持つ元大学教授でもあり、スペインの地方銀行 Unnim Banc で副 CEO まで務めた経歴を持つ人物です。
学術の最前線と金融の実務感覚が掛け合わさった Multiverse は、設立からわずか数年で 160 件の特許と 100 社以上の導入実績を獲得しました。
エネルギー大手イベルドローラや自動車部品の巨人ボッシュ、カナダ銀行など、業種も国境も超えた顧客リストは、同社の技術が汎用的であることの証しです。
そして 2025 年6月、シリーズBラウンドとして約2億 1500 万ドル(1億 8900 万ユーロ)を調達。
これまでの総調達額は約2億 5000 万ドルに達します。
Spotify や Revolut に投資した Bullhound Capital をはじめ、HP Tech Ventures や Santander Climate VC、さらには東芝までもが名を連ねる豪華な顔ぶれが、技術の将来性に太鼓判を押しました。
「Slim モデル」が拓く、ポケットサイズAIのある日常
CompactifAI が圧縮する対象は、Meta の「Llama 4 Scout」や「Llama 3.3 70B」、「Llama 3.1 8B」、Mistral AI の「Mistral Small 3.1」など、主に小規模なオープンソースの人気モデルたちです。
OpenAI などのプロプライエタリモデルはサポートされていません。
さらに近日中には DeepSeek R1 版も登場予定とのこと。
圧縮後の「Slim モデル」は AWS 経由で API として呼び出せるほか、オンプレミス向けのライセンス形態でも提供されるため、自社データでの微調整が必須な金融や医療分野にも適応しやすい点が強みです。
例えば、Llama 4 Scout Slim は AWS 上で 100 万トークンあたり10セントで利用でき、通常の Llama 4 Scout の14セントと比較して大幅なコスト削減を実現しています。
驚くべきは、Slim 化したモデルがときにPCやスマートフォンだけでなく、自作マニアの”おもちゃ”とされてきた Raspberry Pi でも動いてしまうという事実です。
想像してみてください。クリスマスシーズンに色とりどりの LED で彩ったミニチュアハウスが、人に話しかけられるたびにストーリー仕立ての返答を返す。
車載AIがわずかなチップで実装され、運転者と日常会話を楽しみながら最適ルートや空調設定を提案する。
スマホが地下鉄の圏外でも、手元のAI翻訳でスムーズに道案内をしてくれる――そうした”当たり前”が、圧縮技術によって現実味を帯びています。
「大きいことはいいことだ」を疑う、次の一手
大規模モデル=高性能という図式は、今確実に揺らいでいます。
GPU の大艦巨砲主義に頼らず、軽く、速く、エネルギー効率に優れたモデルを量産する流れは、サステナビリティの観点からも歓迎されるでしょう。
CompactifAI は、量子物理という異分野の知恵を借りてAIの新たな地平を切り開きましたが、そのメッセージは私たち一人ひとりの仕事やプロジェクトにも当てはまります。
「もっと大きく、もっと派手に」と考えがちなときこそ、軽量化の視点で仕組みを見直してみる。
そこにこそ、新しい驚きや価値が潜んでいるのかもしれません。
遠くない未来「スマホに入らないAIは古い」と笑われる日が来るかもしれません。
そのとき、私たちは”ポケットサイズAI”というキーワードを、Multiverse Computing という名とともに思い出すことでしょう。
参考:Multiverse Computing raises $215M for tech that could radically lower AI costs
コメント