AMAZON でお買物

正確さは 76%――それでもAIはがん患者の心強い味方になれるのか?

AI

あなたや大切な人ががんと診断されたとき――。
医師の前に座り、専門用語が飛び交う説明を必死に理解しようとする。
でも心の中では「この治療で本当に大丈夫なのか」「他に選択肢はないのか」と不安が押し寄せます。

そんなとき、まるで信頼できる友人のように、医学の知識を分かりやすく整理して伝えてくれる存在がいたらどうでしょう。
いま、その役割を担おうとしているのが大規模言語モデル(LLM)――ChatGPT のような人工知能です。

世界中で始まった実験

2022 年以降、LLM はがん医療の現場に急速に導入され始めました。
米国やドイツ、中国、日本を含む世界19か国で行われた56件の研究をまとめた最新レビューによると、LLM は主に4つの領域で活用されています。

まず、診断を助ける「セカンドオピニオン」として、画像診断や症例解釈にAIを用いることで医師の見落としを減らす試みが行われています。
次に、治療方針の「相談役」として、放射線治療や外科手術の選択肢を提示し、医師の検討を支援する役割も担っています。

さらに、患者への「通訳」として、難解な医学用語を一般の言葉に置き換えて患者が理解しやすい形で伝える機能や、情報整理の「秘書」として、MRI や病理検査の長い報告書を要約し重要な点を抽出する作業も行っています。

イメージするなら、医師の隣に「知識の百科事典を持った通訳者」が座り、患者と医療者の間をつないでくれるような存在です。

期待と現実のギャップ

ただし、結果はまだ道半ばです。
解析によると、AIが出した回答の平均的な正確性は 76.2%。治療の助言では 75.5% と比較的高いものの、診断に限れば 67.4% にとどまりました。
つまり「頼れるが、過信はできない」段階です。

さらに多くの研究は「正確さ」や「適切さ」ばかりを評価し、安全性やリスクについては十分に検討されていません。
もし誤った助言がそのまま採用されれば、患者に害を及ぼす危険性もあるのです。

越えるべき壁

研究者たちは、AIをがん医療に取り入れるうえでいくつかの重要な課題を挙げています。

まず最も重要なのが安全性の確保です。
副作用や薬の相互作用に関する見落としをどう防ぐかという問題があります。
次に、公平性の担保も深刻な課題で、偏ったデータで学習したAIが一部の患者に不利な判断をしないかという懸念があります。
そして、患者や医師が安心してAIを活用できる仕組みをどう作るかという信頼の構築も欠かせません。

これらは単なる技術的課題ではなく「人の命を預かる医療」における根本的なテーマです。

人とAIが描く未来

それでも希望はあります。AIは医師の代わりにはなれませんが、医師と患者の「会話の質」を高めることはできます。
たとえば、複雑な治療選択肢をシンプルな図解にして示すことで、患者自身が納得して決断できるようになる。
これはAIにしかできない新しい価値かもしれません。

最後に、このレビューの結論を借りれば――
「AIはがん治療の主役にはなれない。だが、患者と医師を支える”伴走者”にはなれる」

私たちが目指すべき未来は、AIに治療を委ねることではなく、AIを活かして「人が人らしく、納得して選択できる医療」を実現することなのです。

参考:Large language model integrations in cancer decision-making: a systematic review and meta-analysis

コメント

タイトルとURLをコピーしました