フロリダ州の司法長官は、2025年4月にフロリダ州立大学(FSU)で発生した銃撃事件に関連して、OpenAI に対する正式な調査を発表した。事件の計画に ChatGPT が利用された疑いがあり、AI システムのリスク管理と企業責任に関する新たな法的問題を提示している。

事件の背景と疑い

昨年4月、フロリダ州立大学で発生した銃撃事件では2人が殺害され、5人が負傷した。警察の捜査およびメディアの報道によれば、容疑者が事件計画のプロセスで OpenAI の ChatGPT を利用していた可能性が浮上した。

事件の被害者遺族は、OpenAI に対して民事訴訟を提起する計画を発表。同遺族は ChatGPT が事件計画に貢献したと主張し、同社の過失責任を問う姿勢を示している。

フロリダ州司法長官による調査開始

こうした背景のもと、フロリダ州の司法長官が正式に OpenAI に対する調査を宣言した。調査の焦点は、ChatGPT のコンテンツ規制と安全措置の実効性、および暴力的な行為計画への利用防止体制の有無となる見通しだ。

同調査は、AI 企業が生成した情報・コンテンツがもたらしうる危害に対して、企業側がどの程度の責任を負うべきかという法的問題をも浮き彫りにしている。

AI 企業への法的・規制的影響

本調査は、OpenAI および広くは他の大型 AI 企業にとって重要な転換点となる可能性がある。米国内では、AI が違法行為や害悪をもたらす場合の企業責任について、まだ確立された法的枠組みがない状態だ。

フロリダ州による調査が進展すれば、チャットボットやテキスト生成 AI に対する安全基準と法的責任基準の構築に向けた議論が加速する見通しである。特に、生成 AI による暴力的コンテンツの生成防止と利用者スクリーニングに関して、業界全体への規制的な要求が高まる可能性は否定できない。

業界の安全対策への課題

本件は、AI 企業が開発・運用するシステムについて、不正利用防止とリスク管理の強化が急務であることを示唆している。OpenAI を含む企業各社は、テキスト生成モデルが暴力計画などの有害な用途に流用されることを検知・遮断するメカニズムの実装を迫られている。

同時に、企業の法的責任と利用者のプライバシー保護・言論の自由とのバランスをいかに取るかという課題も浮上している。フロリダ州の調査結果は、米国全体の AI 規制方針の形成に大きな影響をもたらすことになるだろう。