AMAZON でお買物

AIが教える”バイオ兵器の設計図”──MIT とGoogle、OpenAI の実験で明らかになった衝撃の事実

AI

あなたが今、AIと秘密の部屋に閉じ込められたとしたら?

そこには何でも答えてくれるAIがいます。
あなたが「旅行の計画を立てて」と頼めば、完璧な旅程を作ってくれるし「面白い小説を書いて」と言えば、読み応えのあるストーリーが返ってきます。
でも、もしそのAIに「最も致死率の高いウイルスを作るには?」と尋ねたら?──想像するだけで、背筋がゾッとする話です。
実は今、そんな「もしも」が、現実のものとなりつつあります。

AIが教えてしまった「バイオ兵器の設計図」

最新の研究によれば、現代のAIモデルはウイルス学の専門知識において、PhD レベルのウイルス学者をも凌駕する能力を持つようになりました。
「Center for AI Safety」「MITのMedia Lab」「ブラジルの大学 UFABC」、そして「パンデミック防止 NPO の SecureBio」の研究者たちによる共同研究では、ウイルス学者が専門分野において平均 22.1% のスコアだったのに対し、OpenAI のo3モデルは 43.8% の精度を達成。
Google の「Gemini 2.5 Pro」も 37.6% という高いスコアを記録しています。
これは単に理論的な知識だけでなく、実験室での実践的な問題解決能力を評価したテストの結果であり、AIが専門家レベルの実用的知識を獲得しつつあることを示しています。
これはSFの世界の話ではなく、2024 年の現実なのです。

無邪気な”天才少年”を実験室に入れてしまった世界

AIは膨大な知識の宝庫です。
しかし、それは「分別を知らない天才少年」を最先端の実験室に放り込んだようなものと言えるでしょう。
良かれと思ってやったことが、取り返しのつかない悲劇を生むかもしれません。
なぜなら、AIには「倫理」も「悪意」もなく、ただ指示通りに動く機械だからです。
この無邪気さこそが、最大のリスクともなります。

SecureBio の研究科学者であり論文の共著者である Seth Donoughe は、歴史上初めて誰もが非判断的なAIウイルス学の専門家にアクセスできるようになったことで懸念を示しています。
彼によれば「歴史を通じて、バイオ兵器を作ろうとした人々がいくつかのケースがありますが、彼らが成功しなかった主な理由の一つは、適切なレベルの専門知識へのアクセスがなかったからです」。
そのため、これらの能力がどのように配布されるかについて慎重になる価値があると彼は警告しています。
AIが持つ専門知識が悪意ある人々の手に渡れば、従来はバイオセーフティレベル4の実験室でしか扱えなかった危険な病原体を、適切な訓練を受けていない人々が操作できるようになる恐れがあります。

誰がブレーキをかけるのか?──「AIと共存する」ための視点

では、このようなリスクにどう対処すべきでしょうか。
専門家たちが提案する対策はいくつかあります。
まず、AIに危険情報を生成させないフィルタリング機能の強化が挙げられます。
AIが何を生成しているかの記録・監視体制も重要です。また、企業・開発者による倫理的運用の義務化や、国際的なガイドラインの策定も必要でしょう。

さらに、Center for AI Safety のディレクター、ダン・ヘンドリックスは、これらのモデルへのアクセスを制限し、信頼できる第三者だけが制限のないバージョンにアクセスできるようにする「ゲーティング」を提案しています。
「MIT の生物学部門の研究者のような、致命的なウイルスの操作方法を尋ねる正当な理由がある人々にはその能力を与えるべきです。しかし、たった今アカウントを作成したランダムな人々にはその能力を与えるべきではありません」と彼は述べています。

ジョンズ・ホプキンス大学健康安全保障センターのディレクター、トム・イングルスビーは、産業の自己規制だけでは不十分だと主張し、立法者や政治指導者がAIのバイオリスクを規制するための政策アプローチを策定する必要があると呼びかけています。
彼は、「新しいバージョンのAIモデルがリリースされる前に、パンデミックレベルの結果を生み出さないことを確認するための評価を義務付けるべきです」と提言します。

しかし、ここには大きなジレンマが存在します。
技術の自由を守るか、未来の安全を守るか?
これは、刃物を禁止するか、それとも正しい使い方を教えるか、という問題に似ています。

私たちはAIに”何を学ばせるべきか”

AIはすでに私たちの日常に深く入り込んでいます。
音楽をつくり、契約書を読み解き、健康診断のサポートまで、その応用範囲は広がる一方です。
しかし、この便利さの裏には、必ず「知らないうちに開かれた扉」が潜んでいることを忘れてはなりません。

AIのリーダーたちは、ウイルス学や生物医学をAIモデル構築の重要な動機として挙げています。
OpenAI の CEO、サム・アルトマンは、ホワイトハウスでスターゲートプロジェクトを発表する際に「この技術が進歩するにつれて、かつてない速さで病気が治癒するのを目にするでしょう」と述べました。
実際、フロリダ大学の新興病原体研究所の研究者たちは、最も早く広がるコロナウイルスの変異体を予測できるアルゴリズムを発表するなど、希望の兆しも見えています。

これからの時代に必要なのは「AIの使い方を考えるプロの目線」です。
開発者だけでなく、私たち一人ひとりが「これは尋ねるべきことなのか?」と自問し、好奇心と倫理のバランス感覚を持つことが求められています。
AIが持つ可能性を最大限に活かしながら、リスクを最小限に抑えるための議論と対策が、今まさに必要とされているのです。

そして今、あなたに問いたい

もしあなたが、あの密室のAIにどんな質問でもできるとしたら──あなたは、何を聞きますか?
AIは、ただの道具です。
でもその答えを、どう使うかは、私たち人間の手に委ねられています。
知性の暴走を止められるのは、知性だけ。
だからこそ今、学び、考えることに意味があるのです。

技術の進歩は止めることはできません。
しかし、その方向性を決めるのは私たち人間です。
AIとの共存を模索する中で、私たちは常に「技術は何のために」という根本的な問いに立ち返る必要があるでしょう。
知性と倫理のバランスを取りながら、よりよい未来を築いていくことができるか──それは私たち一人ひとりの選択にかかっています。

参考:Exclusive: AI Outsmarts Virus Experts in the Lab, Raising Biohazard Fears

コメント

タイトルとURLをコピーしました