英国で3割のGPがChatGPT等を診療に活用
英国の調査で約3割の総合診療医がChatGPTなどを予約要約や診断補助に日常的に取り入れていることが判明し、専門家は安全性評価と規制整備、教育を伴う段階的導入で現場の信頼を高めることを提案しています。
診察室にAIの「助手」が顔を出し始めました。英国ではChatGPTなどの生成系AIを日常の診療補助に使う総合診療医(GP)が増えています。最新の調査で、その割合は約3割と報告されました。
約3割のGPがAIを導入、現場に変化の兆し
Nuffield Trustが2,108名のGPを対象に行った調査と、Royal College of GPsの調査・フォーカスグループの結果を合わせると、約30%の医師が何らかのAIツールを日常業務で使っていることが分かりました。具体的には予約の要約作成や初期トリアージ、診断の補助などです。
患者対応の「下ごしらえ」をAIが手伝うことで、医師は患者との対話に集中できる時間が増えたと報告する声が多いです。一方で、AIは万能の診断機ではありません。あくまで医師を助ける補助役としての使い分けが求められています。
どんな場面で使われているのか
現場での具体例を挙げると、次のような使い方が目立ちます。
- 受診履歴や予約内容の要約作成。手書きや長い記録を短くまとめる作業を代行します。
- 症状の聞き取り結果を基にした鑑別診断の候補提示。あくまで参考情報として使われます。
- 患者向け文書の下書き作成や、簡単なフォローアップ連絡の自動化。
これらは「繰り返しの事務作業を減らす助手」のイメージです。地図とコンパスのように、医師が主導権を握ったうえでAIを道具として使うのが理想です。
規制不足と安全性評価の欠如が課題
現場からは規制や評価基準が追いついていないとの声が上がっています。適切な枠組みがなければ、GPはどのツールを安全に使えるか判断しにくくなります。誤診や訴訟リスク、データの取り扱いに関する不安も残ります。
専門家は、安全性の評価方法や運用基準の整備を強く求めています。ツールごとの性能差を測る客観的な指標や、臨床現場の声を反映したガイドラインが必要です。
実態と認識のギャップを埋めるために
2,108名を対象とした調査は、現場実態と医師の認識のずれを浮き彫りにしました。ツールを既に使っている医師と、まだ導入に慎重な医師の間に温度差があります。政策側は現場の声を取り込み、現実に即した指針を示すことが求められます。
次のステップ:教育と段階的導入で信頼を築く
実効性のある導入には、評価・規制・教育の三本柱が必要です。具体的には、エビデンスに基づくツール選定、段階的な運用開始、医師やスタッフ向けの教育プログラムです。これらを組み合わせることで、技術の恩恵を安全に享受できます。
AIは診療を取って代わる存在ではありません。適切に使えば、医師の負担を減らし患者との対話を豊かにする助手になり得ます。今はその地図を描き、道具の使い方を学ぶ段階です。ルールと教育を整えれば、より良い医療の未来が見えてくるでしょう。