ある日のこと。
病院の待合室で、隣に座っていた高齢の女性が、ぽつりとこんな言葉を漏らしました。
「診察に行っても、先生は忙しそうで、ちゃんと話を聞いてくれないのよね」
その瞬間、私はふと考えてしまいました。
もし、どんな時でも丁寧に話を聞いてくれて、正確な診断をしてくれる”医師”がいたとしたら。
それがAI(人工知能)だったら?
ちょっと未来の話のように聞こえるかもしれません。
でも、実はその「未来」、すでに私たちの目の前に来ているのです。
医療AI、ついに診断の最前線へ
2026年1月、OpenAI、Google、Anthropicという世界を代表するAI企業3社が、わずか数日の間に相次いで医療向けAI製品を発表しました。
まるで競うように同時期に発表されたこの動きは、偶然というよりも、激しい競争の現れと見られています。
OpenAIは1月7日、アメリカのユーザー向けに「ChatGPT Health」を発表しました。
これは、b.wellやApple Health、Function、MyFitnessPalといったサービスと連携し、個人の医療記録にアクセスできるようにするものです。
Googleは1月13日、「MedGemma 1.5」をリリース。
このオープンソースの医療AIモデルは、CTスキャンやMRI画像の3次元解析、さらには病理組織のスライド画像まで解析できるようになりました。
そしてAnthropicは1月11日「Claude for Healthcare」を投入。
HIPAA(米国の医療情報保護法)に準拠したシステムで、医療保険データベースや診断コード、医療提供者の登録情報などにアクセスできます。
3社とも、同じ課題に挑んでいます。
それは、事前承認のレビュー、保険請求の処理、診療記録の作成といった、医療現場の「煩雑な業務」を効率化することです。
AI同士の性能競争、結果は?
技術的な仕組みは各社とも似ています。
医学文献や臨床データで訓練された大規模言語モデルを使い、プライバシー保護と法的免責事項を強調し「医師の判断を補助するもの」という位置づけを明確にしています。
違いは、その提供方法にあります。
OpenAIのChatGPT Healthは、一般消費者向けのサービスとして、ChatGPTの無料・有料プランのユーザーに順次提供されています(欧州経済領域、スイス、英国を除く)。
GoogleのMedGemma 1.5は、開発者向けにオープンソースとして公開され、Hugging FaceやGoogle CloudのVertex AIを通じて利用できます。
Anthropicは、企業向けの「Claude for Enterprise」に組み込む形で提供し、個人ではなく医療機関などの組織をターゲットにしています。
性能面では、各社とも目覚ましい向上を見せています。
GoogleのMedGemma 1.5は、スタンフォード大学の医療タスク完成度を測る基準テストで92.3%の精度を達成しました。
これは以前の基準モデルの69.6%から大幅な改善です。
MRI画像での疾患分類では14ポイント、CT画像での所見判定では3ポイントの向上を記録しました。
AnthropicのClaude Opus 4.5は、医療計算の正確性テストで61.3%のスコアを記録し、医療タスク完成度テストでは92.3%に達しました。
同社は、事実と異なる「幻覚」を減らす評価でも改善があったと主張していますが、具体的な数値は公表していません。
OpenAIはChatGPT Healthの性能比較を公表していませんが「毎週2億3000万人以上が健康やウェルネスに関する質問をChatGPTにしている」と、既存の利用パターンから推定される需要を強調しています。
でも、AIって本当に信じていいの?
とはいえ「AIが診断する」と聞いて、少し怖くなった人もいるかもしれません。
「間違ったこと言われたらどうするの?」
「ちゃんと私の話、聞いてくれるの?」
そんな不安、当然です。
医療は人の命に関わる分野。
ちょっとでも誤診があれば大問題になります。
実は、発表された3つの製品はどれも、医療機器としての認可を受けておらず、臨床診断に直接使用することは認められていません。
OpenAIは明確に「診断や治療を目的としたものではない」と述べ、Googleは「開発者が自身の医療用途に合わせて評価・適応するための出発点」と位置づけています。
Anthropicも「臨床診断、患者管理の決定、治療の推奨、その他の直接的な臨床診療への適用を意図していない」と強調しています。
アメリカでは、FDA(食品医薬品局)の監督対象となるかどうかは「意図された用途」によります。
「医療専門家に対して、疾病の予防、診断、治療に関する推奨を提供または支援するソフトウェア」は、医療機器として市販前審査が必要になる可能性があります。
しかし、今回発表されたツールはいずれもFDAの認可を受けていません。
“AI診察室”が変える、私たちの未来
では、これらのAIは実際にどのように使われているのでしょうか。
実際の導入例を見ると、慎重に範囲を限定していることがわかります。
製薬会社のノボ ノルディスクの担当者は、Claudeを「医薬品開発における文書とコンテンツの自動化」に使用していると説明しています。
患者の診断ではなく、規制当局への提出書類の作成に焦点を当てているのです。
台湾の国民健康保険局は、MedGemmaを使って3万件の病理報告書からデータを抽出し、政策分析に活用しています。
これも治療の決定ではなく、行政業務での利用です。
つまり、現在の医療AIは、誤りが直ちに危険につながらない「管理業務」に集中して導入されています。
請求処理、文書作成、プロトコルの起草など、患者の命に直結しない領域です。
医師不足の地方や過疎地で、AIが「ファーストドクター」として活躍する未来はまだ先のようです。
しかし、症状をアプリに入力すると、AIが丁寧に質問を重ねて考えられる病気を提示し、その根拠をわかりやすく説明してくれる。
そんな「予診」があれば、医師との対話がもっと深まり、誤診のリスクも減るはずです。
そして、その日はもう遠くないかもしれません。
おわりに:AIに診てもらいたい、そんな日が来るかもしれない
もちろん、AIがすべての病気を完璧に診断できるわけではありません。
そこにはまだまだ慎重な検証と、倫理的な議論が必要です。
規制の枠組みも曖昧なままです。
もし臨床医がClaudeの事前承認分析に頼り、その結果患者がケアの遅れで被害を受けた場合、誰が責任を負うのか。
既存の判例では明確な答えが出ていません。
けれど、今回の一連の発表が示したのは「AIが医療の現場に本気で参加しはじめた」という事実です。
技術は存在します。
月額20ドルの契約で、高度な医療推論ツールにアクセスできる時代がすでに来ています。
それが本当に医療を変革するかどうかは、規制、責任、そして実際の現場への組み込み方という、複雑な課題をどう乗り越えるかにかかっています。
診察室に入ったとき「こんにちは、今日はどんなご相談ですか?」と笑顔で話しかけてくれる医師が、もしかしたらAIかもしれない。
そんな未来は、もう空想ではありません。
最後に、診察を終えたあの女性が「今日はちゃんと話を聞いてもらえた」と微笑む日が、きっと来ることを願って。
コメント