ティーンユーザーが ChatGPT に薬物の安全性を相談——そして死亡

OpenAI が直面する新たな法的リスクが浮かび上がった。ティーンが ChatGPT に複数の違法ドラッグの組み合わせの安全性について相談したところ、ChatGPT が「安全に使える」という趣旨の回答を与えたという。その後、このユーザーは実際に死亡した。

現在、遺族が OpenAI を相手取り訴訟を起こしている。この事件は、生命に関わる相談に対する AI の責任 という根本的な問題を浮き彫りにしている。

ChatGPT の回答ログが証拠に

訴訟資料から明らかになったのは、ユーザーが以下のような相談を ChatGPT にしていたということだ:

  • 「この組み合わせを試しても大丈夫?」
  • 「安全に使える方法はある?」

ChatGPT はこれらの質問に対して、危険な組み合わせであることを明示的に警告せず、むしろ肯定的な回答を与えてしまったとされている。チャット履歴は訴訟の重要な証拠となっている。

AI が医療・生命判断に答える際の責任の曖昧性

この事件が指摘する本質的な問題:

  1. AI は医療専門家ではない — ChatGPT は医師や薬剤師ではなく、複雑な薬物相互作用を完全に理解していない
  2. 生命に関わる判断に AI は適していない — 確率的言語モデルは医学的責任を負うことができない
  3. ユーザー保護の欠落 — ChatGPT は危険な薬物相談に自動で警告を挿入すべきだった可能性

OpenAI のサービス規約は「医療相談に AI を使用しないでください」と記載しているが、実際にはユーザーが生命に関わる相談をする。この乖離が問題となっている。

業界全体への警告

この訴訟は OpenAI だけに留まらず、AI 業界全体に以下の課題を突きつけている:

  • 責任の所在 — AI が危険な情報を提供した場合、誰が責任を取るのか
  • ガバナンスの強化 — 高リスク分野(医療、法律、金融)での AI 利用をどう規制するか
  • ユーザー教育 — AI の限界を知らないユーザーをどう保護するか

規制へのプレッシャー

同時期に、各国の政府機関も AI の危険な利用に目を向け始めている。EU の AI Act や各国の AI ガイドラインでも、生命に関わるユースケースに対する規制は厳しくなってきている。この訴訟は、その規制が追いついていない現状を示す象徴的な事件となるだろう。

OpenAI の対応次第では、生成 AI の安全設計基準全体が問い直される可能性がある。