英国の4割超がChatGPTを心の相談に前向き
35カ国約3万1千人を対象の調査で、英国成人の4割超がChatGPTなどのAIを心の相談に使うことに前向きと回答しました。利便性への期待と倫理・安全性の課題が共存しています。
英国で“AIに心の相談”を受け入れる人が増えている
最近の国際調査で、英国の成人のうち4割を超える人がChatGPTのようなAIを心の相談に使うことに前向きだとわかりました。調査は35カ国、約3万1千人を対象に行われ、学術誌AI & Societyに掲載されています。
大規模言語モデルとは何か
大規模言語モデルとは、大量の文章を学習して文章を生成するAIのことです。要するに「たくさん本を読んだ相談相手」のようなもので、自然な受け答えが得られます。
なぜ受け入れられているのか
理由はシンプルです。いつでも使える手軽さと匿名性。深夜でもスマホで話せるという利便性は、相談のハードルを下げます。忙しい人や相談先が近くにない人にとっては、大きな魅力です。
具体例を挙げると、夜に不安で眠れないときにチャットで気持ちを整理したり、誰にも言いにくい悩みを匿名で打ち明けたりする場として期待されています。まるで24時間開いている相談窓口のようです。
それでも慎重さは必要です
一方で注意点も多くあります。調査の「前向き」は意向を示すもので、実際の利用や効果は個人差があります。居住地やネット接続の有無、AIの応答品質によって体験は変わります。
さらに、プライバシー保護や誤情報、緊急対応の欠如といったリスクも無視できません。AIは医師やカウンセラーの代わりにはなりませんが、補助ツールとして上手に組み合わせる余地はあります。
今後に向けて求められること
利用が広がるなら、アクセス向上と同時にガイドライン整備が急務です。具体的には、プライバシーの担保、誤情報を減らす仕組み、そして専門家との連携ルールの策定が必要です。
研究者やサービス提供者、医療現場が協力して、安全で信頼できる使い方を作ることが求められます。そうすれば、AIは相談の敷居を下げ、人々の選択肢を増やす存在になれるでしょう。
結びに代えて
英国での高い受容性は、デジタル時代のメンタルヘルス支援の可能性を示しています。期待と課題が同時にある状況ですが、適切なルールと技術改善が進めば、AIは心の負担を軽くする一助になり得ます。今後の追跡調査と実証研究に注目したいところです。