あなたの健康診断にも、AIが関わっているかもしれません
ある日の健康診断。
CTスキャンを受けたあなたに、技師がこう言います。
「この画像、AIが解析してくれますので少々お待ちくださいね」
そう聞いて「へえ、すごいな」と思ったのではないでしょうか。
AIが病気を見つけてくれるなんて、まるで未来の医療に来たような気がしますよね。
でも、そのAI、本当に”確かな目”を持っているのでしょうか?
認可されたAI医療機器、でもその多くは「中身が見えない」
アメリカのFDA(食品医薬品局)は、これまでに691種類のAI搭載医療機器を承認してきました。
この数は年々増加し、もはやAIは医療の一部として定着しつつあります。
しかし、最新の研究(JAMA Health Forum, 2025)によれば、その多くが「中身が見えないまま」承認されていたのです。
まるで中身が何かも確認せずに、プレゼントを開けずに信じろと言われるようなものです。
どれだけ「見えない」か? 衝撃の数字たち
研究が明らかにした「報告漏れ」の実態をご紹介しましょう。
試験のデザインすら書かれていないものが46.7%。
AIが学習したサンプルサイズ(訓練データ量)が不明なものが53.3%。
人種・性別などの人口統計学的情報の記載がないものに至っては95.5%にも上ります。
ランダム化臨床試験を行った例はわずか6件(1.6%)、前向き研究を行った例は53件(7.7%)で、患者の健康アウトカムへの効果を示した機器は3件(全体の1%未満)しかありませんでした。
これでは「何を基に判断しているAIなのか」が私たちには全く分かりません。
たとえるなら、凍った湖の上を、氷の厚さも分からず歩かされているようなものです。
実際に起きた”ヒヤリ”の数々――AIは完璧ではない
「でも、AIって精密だし、間違わないんじゃないの?」
そう思われるかもしれません。
しかし、FDAに報告された実際の事故例はこうです。
薬の投与量をAIが誤計算して投与ミスが発生したケース、別人の画像を送信してプライバシー侵害につながったケース、検査装置の音が大きすぎて聴覚被害の恐れがあったケースなどです。
全体で36機器(5.2%)について489件の有害事象が報告されており、その内訳は機器の誤作動458件、傷害30件、死亡1件でした。
また、40機器(5.8%)が合計113回リコール(回収)されており、すでに現場で問題が起きていることが分かっています。
「誰のためのAIか?」――公平性にも大きな疑問
さらに深刻なのは、AIが学習しているデータが偏っている可能性です。
報告されている機器の95.5%が、どんな人種や年齢、性別のデータでAIを訓練したかという人口統計学的特性を書いていないのです。
もし、AIが白人男性のデータばかりで訓練されていたら?
そのAIがアジア人女性や高齢者の診断に失敗するリスクは、想像に難くありません。
AIは「鏡」ではなく「拡声器」です。
元のデータが偏っていれば、その偏りを拡大してしまいます。
明るい兆しもある――改善は少しずつ進んでいる
すべてが悪いニュースではありません。
2021年以降に承認されたAI医療機器では、試験データの公開が28.4%、バイアス評価の実施が19.3%、患者のアウトカム報告が11.0%(以前は1.1%)と、少しずつ改善の流れが見えてきています。
まだ道半ばではありますが「透明性」という光が差し込み始めているのです。
まとめ――「AIに任せる」前に、問うべきこと
AI医療機器は、私たちの命を預かるパートナーになりつつあります。
だからこそ、聞いておきたいのです。
「このAIは、どんなデータを見て育ったのか?」
「このAIの判断を、あなたは信じられますか?」
技術を恐れる必要はありません。
でも、その技術が誰を助け、誰を見落とす可能性があるのか――知る責任は、私たちにもあります。
あなたが歩くその先が、凍った湖ではなく、安全な橋であるように。
これからも、医療の透明性と公平性を問い続けていきましょう。
参考:Benefit-Risk Reporting for FDA-Cleared Artificial Intelligence−Enabled Medical Devices
コメント