OpenAI が深刻な法的問題に直面しています。同社が violent ChatGPT user を警察に報告しなかったとして訴訟が提起され、CEO Sam Altman が直接非難される事態となっています。

訴訟の核心

弁護士らは、OpenAI が学校銃撃事件に関連する violent ChatGPT user の情報を警察に報告する義務を果たさなかったと主張しています。

訴訟の根拠として挙げられているのは、Altman および同社が IPO に向けた好材料の維持を優先し、企業の責任よりも利益保護を選んだという疑いです。弁護士は Altman のことを「the face of evil」と表現し、同社の行動が極めて無責任であると指摘しています。

企業責任と報告義務の問題

この訴訟は、AI 企業が持つ危険な利用者の情報をどう扱うべきかという根本的な問題を問い直しています。

  • 公共の安全: 危険な行為の兆候を持つユーザーを検出した際、当局への報告はいかにあるべきか
  • プライバシーと法的責任: 一方で利用者のプライバシー保護も求められる中での「報告の線引き」
  • 企業の説明責任: 内部で報告検討が行われたのか、なぜ見送られたのか

今後の展開

この訴訟は、AI 企業全体に対する規制当局の目と世論の注視を集めることになります。OpenAI がどのような弁明と証拠を提示するか、そして裁判所がいかなる判断を下すかは、AI 企業全体の安全報告体制にも影響を及ぼすでしょう。

ChatGPT を始めとした AI サービスが社会に広がる中、企業が持つ情報の社会的責任をいかに定義し、実行するかは、今後の AI ガバナンスの重要な課題となります。