「未来を変えるAI技術」
そう聞いて、ワクワクする人もいれば、不安になる人もいるかもしれません。
スマートスピーカーが今日の天気を教えてくれたり、検索エンジンが言いたいことを先回りしてくれたり。
AIは今や、私たちの生活の一部になっています。
けれどもその裏側では、信じられないほどのスピードで、国家や企業同士が「次の覇権」をかけて競い合っているのです。
そんな中、サイバーセキュリティ企業のWiz(ウィズ)が実施した調査により、驚くべきセキュリティ上の問題が明らかになりました。
これは単なる一部企業の失敗ではありません。
AI時代を生きる私たち全員にとっての警鐘なのです。
AI開発の最前線で何が起きたのか?
2025 年の今、AI技術の進化はもはや「加速」ではなく「爆走」と言えるほどです。
Microsoft、Google、Amazon、OpenAI など、世界のテックジャイアントたちがこぞって投資を注ぎ込み、次なるブレイクスルーを目指しています。
そんな中、サイバーセキュリティ分野に強みを持つ Wiz が、AI業界の主要企業50社を対象とした調査を実施しました。
その結果は衝撃的なものでした。
調査対象となったAI企業の 65% が、GitHub に機密情報を漏洩していたことが判明したのです。
漏洩していたのは、API キー、トークン、認証情報など、企業の心臓部にアクセスできる重要な情報でした。
これらは、通常のセキュリティツールではチェックされないコードリポジトリに埋もれていたのです。
これは、例えるなら「金庫の鍵を玄関に置き忘れたまま長期休暇に出かけていた」ようなものです。
しかも、その金庫には、最新の研究データや技術のノウハウがぎっしり詰まっていました。
具体的にどんな情報が漏れていたのか?
Wiz の調査では、Forbes AI 50 にリストされた企業を対象に、具体的な漏洩事例が明らかになりました。
たとえば、LangChain では複数の Langsmith API キーが露出しており、組織の管理やメンバーリストへのアクセス権限を持つものもありました。
こうした情報は、攻撃者にとって偵察活動に非常に価値があります。
また、ElevenLabs のエンタープライズ級 API キーが平文ファイルに保存されていたことも発見されました。
さらに深刻なのは、ある匿名の AI 50 企業のケースです。削除されたコードフォーク内に HuggingFace トークンが露出しており、このトークンだけで約 1000 個のプライベートモデルにアクセスできる状態でした。
同じ企業は WeightsAndBiases のキーも漏洩させており、多数のプライベートモデルのトレーニングデータが露出していたのです。
なぜ問題は深刻なのか?
一見すると「ちょっとしたミスだったのでは?」と思うかもしれません。
しかし、この問題の根はもっと深いところにあります。
業界全体の信頼の崩壊
これらの情報漏洩は、セキュリティの基本を怠った結果です。
Salt Security の Glyn Morgan 氏は「AI企業が API キーを誤って露出させることは、明白かつ回避可能なセキュリティの失敗を露呈している」と指摘しています。
攻撃者に、システム、データ、モデルへの「ゴールデンチケット」を手渡してしまっているようなものなのです。
サプライチェーンリスクの拡大
現在、企業がAIスタートアップと提携するケースが増えています。
その結果、パートナー企業のセキュリティ体制を引き継ぐことになります。
Wiz の調査では、一部の漏洩が「組織構造、トレーニングデータ、さらにはプライベートモデルさえも露出させる可能性があった」と警告しています。
巨額の金銭的リスク
確認された漏洩があった企業の合計評価額は、4000 億ドル以上に上ります。
これは一企業の損失にとどまらず、業界全体、ひいては国家レベルの損害にもつながりかねません。
対応体制の未熟さ
Wiz の研究者が漏洩を報告しようとしたところ、開示の約半数が対象に届かなかったか、応答がありませんでした。
多くの企業は公式な開示チャネルを持っておらず、通知を受けても問題を解決しなかったのです。
AI社会に必要なのは「スピード」だけじゃない
AIの開発は、例えるなら「ロケットを開発する競争」のようなものです。
いち早く宇宙に到達するためには、エンジンの性能も大事。
でも、それ以上に燃料タンクの管理や安全装置の設計がしっかりしていなければ、打ち上げの瞬間に爆発する危険性があります。
Wizの報告書では、この問題が蔓延している理由として、従来のセキュリティスキャン手法がもはや十分でないことを指摘しています。
企業のメイン GitHub リポジトリの基本的なスキャンに依存することは「コモディティ化されたアプローチ」であり、最も深刻なリスクを見逃してしまうのです。
研究者たちはこの状況を「氷山」に例えています。
最も明白なリスクは目に見えますが、より大きな危険は「水面下」に潜んでいるのです。
私たちはどう向き合うべきか?
このニュースを受けて、多くの人がこう思ったかもしれません。
「AIなんて、結局怖いだけじゃないか」と。
けれども、だからこそ必要なのは「技術を恐れること」ではなく「技術に向き合う目を持つこと」です。
Wiz は、企業が取るべき具体的なアクションを提示しています。
まず、セキュリティリーダーは従業員を企業の攻撃対象面の一部として扱う必要があります。
従業員のオンボーディング時にバージョン管理システム(VCS)のメンバーポリシーを適用し、個人アカウントでの多要素認証の使用や、GitHub などのプラットフォームでの個人的活動と職業的活動の厳密な分離を義務付けるべきです。
次に、内部のシークレットスキャンは、基本的なリポジトリチェックを超えて進化しなければなりません。
公開 VCS のシークレットスキャンを「譲れない防御策」として義務付け、水面下に潜む脅威を見つけるために「深度、範囲、カバレッジ」の考え方を採用する必要があります。
そして、このレベルの精査をAIサプライチェーン全体に拡大することが不可欠です。
AIベンダーのツールを評価または統合する際、CISO はシークレット管理と脆弱性開示の実践を調査すべきです。
未来のAI社会が、安心して歩ける場所になるかどうかは、技術者だけでなく、私たち一人ひとりの「問いかける力」にかかっているのかもしれません。
おわりに──「技術の光と影」を見つめて
AIは、間違いなく未来を変える力を持っています。
でも、その力が「希望の光」になるか「暴走する影」になるかは、今の私たちの選択次第です。
Wiz の調査が明らかにした事例は、単なる一部企業のトラブルではありません。
それは、次世代の技術を定義するツールやプラットフォームが、セキュリティガバナンスを上回るペースで構築されているという現実を示しています。
Wiz の言葉を借りれば「AI革新者へのメッセージは明確です。スピードはセキュリティを犠牲にしてはならない」のです。
そしてその革新に依存する企業にとっても、同じ警告が当てはまります。
どうか、このニュースをただの出来事として流さないでください。
そしてこれからも「問いを持つこと」を、忘れないでください。
コメント