AMAZON でお買物

「AIに医療相談したら正解率 34% に急降下」 95% の精度が人間の使い方で台無しに

AI

突然の激痛、そしてAIへの相談

「この痛み…まさか、命に関わる病気じゃないよね?」

金曜の夜、映画館の暗がりで頭に突然ピキンと走る激痛。
20歳の大学生は、思わず座席でうずくまりました。
首も回らず、光がまぶしくて目も開けられません。
周囲の観客の視線が気になりながらも、この異常な症状に対する不安が彼の心を支配していました。

慌ててスマホを取り出し「頭痛 首が痛い 光 まぶしい」と検索。
画面に表示されたのは、従来の医療情報サイトに加えて、最近話題のAIチャットボットの案内でした。
SNS やニュースでは「ChatGPT で病気がわかった」「AIが医師より正確な診断をした」といった話題も頻繁に耳にします。
医療機関への受診をためらう若い世代にとって、24時間いつでもアクセス可能で、恥ずかしさを感じることなく相談できるAIは、魅力的な選択肢に映ります。

“とりあえず相談してみよう” そう思った彼は、画面に向かって自分の症状を文字で打ち込み始めました。
しかし、この一見便利で合理的に思える行動が、予想外の結果を招くことになるとは、その時の彼は知る由もありませんでした。

AIは正しい。でも、私たちの使い方は正しい?

実は、彼が使ったAIは医師国家試験レベルの問題を9割以上正解する「超・優秀モデル」でした。
このような高性能AIは、膨大な医学論文や教科書、症例データベースから学習を重ね、専門医レベルの知識を蓄積しています。
理論的には、多くの疾患について的確な診断や治療指針を提示する能力を有しているはずです。
なのに、結果として彼は適切な医療行動を選ぶことができませんでした。

この現象は決して偶発的なものではありません。
オックスフォード大学などの国際的な研究チームは、1,298 人という大規模な被験者を対象に「AIを使って病気や対処法をどれだけ正しく判断できるか」について徹底的な調査を実施しました。
この研究では、様々な医療シナリオを用意し、参加者をいくつかのグループに分けて、それぞれ異なる方法で医療情報にアクセスしてもらい、最終的な判断の精度を比較検証しました。
研究チームは、単純にAIの性能を測るのではなく、実際の使用場面における「人間とAIの相互作用」に焦点を当てたのです。

結果はショッキングでした。

AIだけが関連症状を特定した場合、その精度は平均 94.9% の高精度を記録しました。
また、適切な対処法の推奨については平均 56.3% の正解率でした。
しかし、これが人間とAIの対話を通じた判断となると、状況は一変します。
実際に人がAIとやりとりして関連症状を特定すると、正解率はわずか 34.5% 以下まで急降下したのです。
適切な対処法の判断についても、約 43% の正解率にとどまりました。

さらに驚くべきことに、関連症状の特定においては、従来通りインターネット検索などを使って自分で情報を調べたコントロールグループ(47.0%)の方が、AIと対話したグループよりも高い正解率を示しました。
これは、まるで百科事典という優秀な道具を手にしているにも関わらず、その目次の使い方がわからないために、結果的に情報を活用できない状態と言えるでしょう。

AIとの対話に潜む「誤解の壁」

この研究では、どんな対話が失敗につながったのかも分析されています。
そこには、私たちがAIと付き合う上で避けて通れない「落とし穴」がありました。

① 伝えるべき情報を、伝えていない

最も頻繁に見られる問題の一つが、症状の詳細な情報の不足です。
多くの人は「痛い」「だるい」「気分が悪い」といった抽象的な表現でAIに症状を伝えがちですが、これではAIは適切な判断材料を得ることができません。
医師であれば「どこが」「いつから」「どんな風に」「どの程度の強さで」といった具体的な情報を聞き返してくれますが、現在のAIは人間ほど巧みに情報を引き出すことができないのが現実です。
これは、まるで優秀な地図を持っているにも関わらず、現在地を正確に伝えることができないために、目的地への正しいルートを示してもらえない状況に似ています。

② AIが返した正解を、正解と気づけない

AIは医学的に正確な情報を提供することが多いのですが、しばしば複数の可能性を列挙する形で回答します。
例えば、頭痛の症状に対して「緊張型頭痛、片頭痛、髄膜炎の可能性があります」といった具合です。
しかし、一般の人にとっては、この中のどれが最も可能性が高いのか、どの症状が緊急性を要するのかを判断することは困難です。
結果として、重要な情報が含まれているにも関わらず、それを見過ごしてしまったり、軽視してしまうケースが少なくありません。
これは、複数の出口がある迷路を前にして、どれが正しい道なのかを示す案内がない状況での不安感に似ています。

③ 同じ症状でも、違う答えが返る

AIの回答は、質問の仕方や提供される情報の微細な違いによって大きく変わることがあります。
同じ頭痛の症状でも、ある人には「すぐに病院を受診してください」と緊急性を強調する回答が返される一方で、別の人には「しばらく様子を見ても大丈夫でしょう」という比較的安心させる内容が返されることがあります。
この違いは、症状の伝え方、追加で提供された情報、さらには質問のタイミングなどによって生じます。
医師であれば、患者の表情や声のトーン、全体的な様子からも情報を読み取ることができますが、テキストベースのAIには、そうした非言語的な情報を捉える能力がまだ十分に備わっていないのです。

医療AIに本当に必要な力は「会話力」かもしれない

AIが”医師のような知識”を持つ時代。
けれど、医師のように「聞き返し」「確認し」「説明する」力は、まだ未完成です。

研究チームは提言します。

“今後は、AIと人との「やりとりの質」を高める研究が必要だ”

AIに問われているのは、単なる”正解のデータ”ではなく“人に伝わる力”なのです。

私たちができること:AIに相談するときの3つの工夫

1. できるだけ具体的に話そう

AIとの対話において最も重要なのは、症状や状況を可能な限り具体的に伝えることです。
単に「痛い」と表現するのではなく「昨日の夜10時頃から、右下腹部にズキズキした継続的な痛みがあり、歩くと痛みが増し、軽い吐き気も伴っている」といったように、時間的な経過、痛みの場所、性質、強度、関連する症状などを詳細に記述することが大切です。
また、痛みを和らげるために何かした行動があれば、それも含めて伝えましょう。
薬を飲んだ、横になった、温めたなど、これらの情報もAIにとって重要な判断材料となります。

2. AIの返答は「参考意見」として受け取ろう

AIからの回答は、あくまでも一つの参考意見として捉えることが重要です。
これは確定的な「診断」ではなく、可能性を示唆する「ヒント」程度の位置づけで受け止めるべきです。
医師のように、患者の全体的な状態を直接観察し、必要に応じて検査を行い、過去の病歴や家族歴なども考慮した総合的な判断とは異なることを理解しておきましょう。
AIの回答は、医療機関を受診すべきかどうかの判断材料の一つとして活用し、最終的な判断は必ず医療従事者に委ねることが賢明です。

3. 迷ったら、必ず医療機関へ

症状について少しでも不安を感じたり、AIの回答に確信が持てない場合は、迷わず医療機関を受診することが最も安全で確実な選択です。
特に、急激に症状が悪化した場合、今まで経験したことのない症状が現れた場合、痛みが我慢できないほど強い場合などは、AI相談の結果に関わらず、速やかに医療機関への相談を検討すべきです。
不安を抱えたまま過ごすストレスよりも、専門家による確実な診断を受けて「確信」に変えてくれる安心感の方が、心身の健康にとってはるかに有益です。
結局のところ、人間の医師が持つ経験と直感、そして患者との直接的なコミュニケーション能力は、現在のAI技術では完全に代替することのできない貴重な価値なのです。

最後に:AIに”問う”のではなく、”対話する”時代へ

AIは確かに強力な道具です。
しかし、どんなに優秀な道具であっても、その使い方ひとつで私たちの健康や、時には命に関わる重要な選択が大きく左右されることを、この研究は明確に示しています。
医療の世界においてAIが果たす役割は今後ますます拡大していくでしょうが、その恩恵を最大限に享受するためには、私たち利用者側の意識とスキルの向上が不可欠です。

この研究が最も重要な教訓として示したのは「AIがどれほど賢いか」という技術的な側面よりも「私たちがAIとどのように関わり、どのように情報を引き出し、どのように判断に活用するか」という人間側の要因がはるかに決定的だということです。
つまり、AI技術の進歩を待つだけでなく、私たち自身がAIとの効果的な付き合い方を学んでいく必要があるのです。

AIにすべてを委ねるのではなく、AIと一緒に考える。

これは単なる理想論ではありません。
私たちが症状を的確に伝える力、AIからの回答を適切に解釈する力、そして最終的な判断を下す際の慎重さと勇気を身につけることで、AIは真に私たちの健康を守るパートナーとなり得るのです。
それが、デジタル技術と共生するこれからの時代を生きる私たちに求められる、新しい”ヘルスリテラシー”の姿なのかもしれません。
医療AI時代の到来は、私たちに新たな学習と成長の機会を提供してくれているとも言えるでしょう。

参考:Clinical knowledge in LLMs does not translate to human interactions

コメント

タイトルとURLをコピーしました