「患者さんがAIに聞いてきた話、なんだかズレてるな」と感じたこと、ありませんか。
2026年1月、OpenAIが「ChatGPT Health」を正式に発表しました。医療記録やウェルネスアプリと連携し、検査結果の読み解きや受診準備を支援する専用機能です。毎週2億3,000万人以上がChatGPTで健康関連の質問をしているというデータもあり、患者がAIに医療相談をする流れは、もう「将来の話」ではなくなっています。
一方で、2026年2月にNature Medicineに掲載されたオックスフォード大学の研究(Bean et al.)は、少し立ち止まる必要がある結果を示しています。AIモデル単体では医療シナリオに対して高い正答率を出すのに、一般の人がそのAIを使って相談すると、AI支援なしの対照群と同等かそれ以下の成績になる──そんな現象が報告されたのです。
この記事では、「なぜ患者のAI医療相談は精度が出にくいのか」を構造的に整理したうえで、「だからこそ薬剤師がAIを使いこなす側に回る意味がある」という話をします。私自身、調剤薬局で働く30代の薬剤師として、日々の業務の中でこの問題を身近に感じています。
この記事でわかること
- 患者がAIに医療相談しても精度が出にくい構造的な理由(Nature Medicine論文の知見)
- ChatGPT Healthなど患者向けAIツールの現状と限界
- 薬剤師がAIを業務に取り入れるための具体的な活用場面と注意点
- AI時代に薬剤師の専門性が求められる理由
目次
AIが医療相談の「新しい入口」になりつつある
まず、いまの状況を整理しておきます。
ChatGPT Healthは、Apple HealthやMyFitnessPalなどのアプリと連携し、血液検査のトレンドを確認したり、医師との面談に向けた質問リストを準備したりといった使い方を想定しています。OpenAI自身も「診断や治療を行うものではなく、医療情報を整理し医師との対話を準備する支援ツール」という位置づけを強調しています。
ここ、押さえておきたいポイントです。ツール側は「あくまで受診準備」と言っている。でも、使う側がその線引きを守れるかどうかは別の話です。
でも、AIに「この症状は何?」って聞いたら、けっこうそれっぽい答えが返ってきますよね。患者さんがそれを信じちゃうのは仕方なくないですか?

オカメインコ

ポッポ先生
まさにそこが問題の核心ですね。AIが返す文章は丁寧で読みやすいので、人間は「良い文章=正しい文章」と誤認しやすい。医師の回答よりAIの回答のほうが高評価になるという研究もありますが、それは共感性や見た目の評価であって、医学的正確性の保証ではありません。
いまの状況だと、患者さんが「AIにこう言われた」と来院するケースは増える一方です。しかもそのAIの回答精度は、患者さんの質問の仕方に大きく左右されるという構造的な問題がある。次のセクションで、この「Garbage in, Garbage out」問題を掘り下げます。
なぜ患者がAIに相談しても精度が出にくいのか
「聞き方」で鑑別診断が変わる
ここ、迷いやすいところです。AIの性能が上がったから精度も上がる──直感的にはそう思いますよね。でも実際には、AIの回答品質を決める最大のボトルネックは、AI側の医学知識ではなく、患者が入力する情報の質です。
遺伝性疾患を題材にしたFlahartyらの研究(Am J Hum Genet, 2024)では、同じ疾患について「医療者向け記述」「一般向け言い換え」「患者の自己申告文」の3種類でAIの疾患同定精度を比較しています。結果は予想どおりで、患者の自己申告文になるほど診断精度は落ちていました。
私ならまず「入力情報の質」から確認します。患者さんのAI相談がうまくいかないとき、AIが悪いのではなく、入力が不十分なケースが多いからです。
患者の入力が崩れる6つのパターン
具体的に、どんなふうに入力が崩れるのか。参考資料をもとに整理すると、以下のパターンに分類できます。
| パターン | 典型例 | AIへの影響 |
| 情報の欠落 | 「熱があるしだるい。何の病気?」(時系列・重症度なし) | AIが推測で情報を補完し、不正確な出力リスクが増大 |
| ノイズ混入 | 仕事のストレスや生活背景を長文で書き、症状は最後に一行 | AIの注意が散り、主訴が埋もれる |
| 前提の歪み | 「これは急性扁桃炎に違いない。抗生剤飲んだ方がいい?」 | AIが前提を疑わず同調する(迎合=Sycophancy) |
| 用語の誤解 | 「貧血で倒れた」(実際は血管迷走神経反射性失神) | そもそも入力情報が事実と異なる |
| 意図的な非開示 | 喫煙・飲酒量を過少申告する | 助言が根本からズレる |
| 網羅的列挙の要求 | 「この症状の病気を全部列挙して」 | 絞れない上に漏れも出る無意味な回答になる |
正直、これって問診票でも同じことが起きてますよね?

オカメインコ

ポッポ先生
そのとおりです。対面の問診でも患者さんの自己申告はズレやすい。ただ、対面なら医師や薬剤師が追加質問で情報を引き出せます。AIは基本的に「与えられた入力の範囲内で最適化された回答」しか出せないので、入力の質がそのまま回答の上限になるんです。
ただし、ここは医療者側の視点で語りすぎると見落とすことがあります。患者さんが「何を書けばいいかわからない」のは当たり前で、それ自体を責めても仕方がない。陰性所見(「ない症状」の情報)が鑑別に効くことを、医学教育を受けていない人が知っているはずがありません。
Kaurらの研究(arXiv, 2024)では、質問文に前提を埋め込むとAIが同調してしまい誤りを訂正しにくくなることが示されています。「Aという病気に違いないのですが…」という聞き方は危険で、AIの迎合性がリスクを増幅させます。
Nature Medicine論文が示した「人間×AI」の落とし穴
AIは単体で94.9%正答──でも人間が使うと34.5%以下
2026年2月発表のBeanらの研究(Nature Medicine)は、この問題を1,298人の参加者による無作為化試験で検証しました。
Nature Medicine論文(Bean et al., 2026)の主な結果
- AIモデル単体:関連疾患の特定率 平均94.9%/適切な受診行動の正答率 56.3%
- 一般人がAIを使用:関連疾患の特定率 34.5%以下/受診行動の正答率 44.2%以下
- AI支援なしの対照群と統計的に有意な差なし──つまりAIを使っても使わなくても結果が変わらなかった
どうですか? これ、けっこう衝撃的な結果ではないでしょうか。
2段階で起きるコミュニケーション崩壊
この研究で特に注目したいのは、情報伝達の2段階崩壊が明らかになった点です。
第1段階:ユーザーからAIへの情報不足。サンプル分析した30件の会話のうち、16件で最初のメッセージに必要な情報が欠けていました。
第2段階:AIからユーザーへの情報伝達の失敗。AIが会話の中で正しい疾患名を挙げていたケースでも、ユーザーがそれを最終回答に反映しなかった。AIは平均2.21の候補疾患を提示しましたが、そのうち正しかったのは34.0%にすぎず、ユーザーが正しい候補を選り分ける力も不足していたことがわかります。
でも、もっと新しいモデルなら改善されるんじゃないですか?

オカメインコ

ポッポ先生
モデルの性能向上で解決する部分と、しない部分があります。論文でも指摘されていますが、ベンチマーク成績(医師国家試験レベルの問題での正答率)と実際のユーザーインタラクションの成績にはほとんど相関がなかった。つまり「AIが賢くなればすべて解決する」という前提は、少なくとも現時点では成り立っていません。
心当たりありませんか──患者さんが「AIにこう言われたので」と来局されたとき、「いや、それはそういう意味じゃないんだけどな」と感じた経験。あの違和感は、まさにこの「人間×AI」のインタラクション問題が現場で起きている証拠です。
この研究の留意点
使用モデルは2024年時点のもの(GPT-4o、Llama 3、Command R+)で、現在のGPT-5系やClaude Opus 4系とは世代が異なります。また、臨床ビネットを用いた模擬実験であり、実際の症状を体験している患者の緊急性やストレスは再現されていません。今後、より新しいモデルでの追試が必要な領域です。
薬剤師がAIを使いこなすと何が変わるか
「患者が使えない」なら、専門家が使えばいい
ここまで読んで「じゃあAIは使えないのか」と思った方、逆に言うとこういうことです。AIの性能自体は高い。問題は入力の質。だとすれば、医学的知識を持った専門家がAIを使えば、入力の質を担保できるぶん、AIのポテンシャルをきちんと引き出せる可能性があります。
薬剤師は、医薬品の専門知識に加えて、患者の既往歴、服薬状況、アレルギー歴、生活習慣といった情報を日常的に扱っています。つまり、AIが必要とする「質の高い入力」を組み立てる素地がすでにある。
そうは言っても、毎日の業務が忙しいのに、AIの使い方まで覚える余裕なんてありますか?

オカメインコ

ポッポ先生
正直な話、最初から大きく変える必要はないです。たとえば「服薬指導の前に、この処方で注意すべき相互作用をAIに確認する」くらいのところから始めるのが現実的ですね。いまは薬歴入力支援やSOAP形式の下書き生成など、薬局向けのAIツールも出てきていますから。
薬剤師がAIを活用できる具体的な場面
現場だとここで詰まりがちなので、具体的な活用場面を整理しておきます。
添付文書・ガイドラインの横断検索。慣れない薬剤や複雑な併用パターンの確認で、AIに「この処方内容で注意すべき相互作用を根拠つきで挙げて」と聞く使い方です。ただし、AIはハルシネーション(もっともらしいが存在しない情報の生成)を起こす可能性があるので、出力は必ず一次情報で裏取りしてください。
服薬指導の準備・薬歴作成の補助。生成AIを使ったSOAP薬歴の下書き生成は、すでに複数の企業が実用化段階に入っています。音声認識と組み合わせて患者との会話をリアルタイムにテキスト化し、薬歴の下書きを自動生成するシステムも登場しています。
患者向け説明文の作成。「この薬の副作用について、患者さんにわかりやすく説明する文章を作って」といった使い方です。ここで大事なのは、AIが生成した文章をそのまま渡すのではなく、薬剤師が内容を確認・修正したうえで使うこと。無検証で渡すのは、しないほうが安全です。
学習・自己研鑽。日経DIのコラムでも紹介されていますが、Claudeなどの生成AIを使って仮想の臨床症例シナリオを作成し、前景疑問を整理する「考える学び」の実践法も広がりつつあります。
ただし「AIを使えば万能」ではない
誤解されやすいので先に言うと、AIを業務に取り入れる際に「AIが言ったから正しい」という姿勢は絶対に避けるべきです。内閣府の分析(世界経済の潮流 2024年)でも、薬剤師は「AIの影響が大きく、補完性が高い職業」──つまり事務的タスクはAIに任せつつも、最終判断は人間が下すべき領域──に分類されています。
AI活用時のセルフチェック
- AIの出力を添付文書・ガイドラインなどの一次情報で裏取りしたか?
- ハルシネーション(架空の情報生成)の可能性を考慮したか?
- 患者の個別状況(腎機能、肝機能、妊娠の有無など)を入力に反映したか?
- AIの回答をそのまま使わず、自分の専門知識でフィルタリングしたか?
AIは道具です。使う側の専門知識と判断力があってはじめて、その能力が正しく発揮される。逆に言えば、専門知識を持つ薬剤師がAIを使いこなせれば、業務の質と効率を同時に上げられる可能性がある。
AI時代に薬剤師の専門性が必要とされる理由
「対面の力」がむしろ価値を増す
ここまでの話を踏まえると、一つ見えてくることがあります。AIが患者の「新しい入口」になるほど、対面で情報を引き出し、整理し、判断できる専門家の価値はむしろ上がる、ということです。
患者がAIに相談して得た情報を持って来局する。その情報が正しいかどうかを判断し、足りない情報を対面で補い、適切な行動につなげる。この「AI出力の検証役」は、医学的知識と対面コミュニケーション能力の両方がないと務まりません。
でも、AIがもっと賢くなったら、薬剤師の判断自体がいらなくなる可能性もあるんじゃないですか?

オカメインコ

ポッポ先生
可能性はゼロとは言えません。ただ、現時点で確実に言えるのは、AIを使う側のスキルがある人とない人の差は今後ますます開くということです。法的責任を伴う最終判断を「AIが言ったから」で済ませられる時代は当面来ないでしょう。規制やライセンス制度が時間的な余裕を作ってくれている、とも言えます。
患者の「AI相談」に対応するスキルを持つ
もう一つ、いまの状況だと見過ごしがちな視点があります。患者さんが「AIにこう言われた」と来局したとき、それを頭ごなしに否定するのは得策ではありません。
むしろ、「どういうふうにAIに聞きましたか?」と入力内容を確認し、「この情報が抜けていたから、AIの回答がズレた可能性がありますね」と説明できれば、患者さんの信頼を得ながら適切な方向に導けます。AIの仕組みを理解している薬剤師は、この場面で大きなアドバンテージを持ちます。
参考資料にあった医師の指摘──「AIはこう言っていたという患者には、実際のAIとのやりとり(特に入力したプロンプト)を見せてもらったほうがよい」──は、薬剤師にもそのまま当てはまります。
ただし、患者さんの中にはAIの活用方法自体がわからない方も多いのが現実です。その場合は、「どんな症状がいつから続いているか、薬やアレルギーの情報も含めて伝えると精度が上がりますよ」と、AIへの上手な質問の仕方をアドバイスすること自体が、薬剤師の新しい付加価値になり得ます。
まとめ──「使う側」に回るための最初の一歩
この記事の結論を改めて整理します。
患者が生成AIで医療相談をしても、入力情報の質がボトルネックになり、AIの性能が十分に発揮されない構造がある。これはNature Medicineの無作為化試験でも実証されています。一方で、ChatGPT Healthのような患者向けAIツールの普及は止まりません。
薬剤師に求められる二つの役割
- 自分自身の業務にAIを取り入れる──専門知識を活かして「質の高い入力→質の高い出力」のサイクルを回す
- AIを使って来局する患者の「翻訳者」になる──AI出力の妥当性を検証し、適切な行動につなげる
最初の一歩は小さくて構いません。私ならまず、明日の業務でChatGPTかClaudeの有料版に一つだけ業務上の質問を投げてみるところから始めます。「この併用パターンで注意すべき相互作用は?」でも「この副作用の初期症状として患者に伝えるべきことは?」でもいい。AIの回答を添付文書で裏取りする。その1サイクルだけで、AIの「使える範囲」と「使えない範囲」が体感としてわかります。
大事なのは、AI活用を「いつかやる」ではなく「今日、小さく試す」にすること。
AI技術の進化速度は速く、半年前の「できなかったこと」が今日はできるようになっている、ということが当たり前に起きています。だからこそ、早い段階で「AIを使う感覚」を身につけておくことが、将来の選択肢を広げます。AIがどれだけ賢くなっても、それを正しく使いこなし、患者さんの安全を守る最後の砦は、やはり医療の専門家です。
確認先(一次情報)
- Bean AM et al. “Reliability of LLMs as medical assistants for the general public: a randomized preregistered study.” Nature Medicine (2026). https://doi.org/10.1038/s41591-025-04074-y
- OpenAI “Introducing ChatGPT Health” (2026年1月7日). https://openai.com/index/introducing-chatgpt-health/
- 内閣府「世界経済の潮流 2024年 I」第1章第1節 AIによる職業・タスクの補完と代替
- 厚生労働省「薬局薬剤師DXの推進について」
- 医療AIプラットフォーム技術研究組合(HAIP)「医療・ヘルスケア分野における生成AI利用ガイドライン(第2版)」(2025年7月)


