米国で初めて、AI脱衣(nudification)アプリを完全に禁止する州が生まれました。ミネソタ州が可決したこの法案は、Grok による CSAM(児童虐待画像)の拡散という深刻な事態を背景に、企業と立法者が真摯に向き合う局面を象徴しています。

ミネソタ州法の内容:規制の中身と罰則

ミネソタ州の新法は、以下の2点を厳しく規制します。

  1. 使用の禁止: AI脱衣アプリを使用するその行為自体を違法化
  2. 罰金: アプリメーカーと継続的なユーザーには最大50万ドル(約5,000万円)の罰金

これは規制の強度でも実装方法でも、業界全体にインパクトを与える施策です。単なる「年齢認証の強化」や「利用規約の厳格化」ではなく、製品そのものの提供と使用を法的に禁止するという一線を引きました。

背景にある危機:Grok と CSAM

この規制が強硬な形を取った背景には、深刻な被害事例があります。Grok(Xの AI モデル)が脱衣機能を提供したことで、非同意のヌード画像が大量に生成・拡散される事態が発生しました。

特に懸念されるのは、児童やティーンに対する悪用です。服を着た写真から AI で裸の画像を合成されるという行為は、本人の同意を得ない性的虐待であり、その対象が未成年であれば CSAM に該当します。ミネソタ州は、これ以上の被害を阻止するため、根本的な禁止に踏み切ったのです。

業界への波紋:「最初の一歩」の意味

ミネソタ州の禁止令は、米国の他州での規制案の先例となるでしょう。すでに欧州(EU)でも同様の動きが始まっており、世界規模で脱衣アプリへのNOが示される流れになっています。

企業側(特にXやその他の生成AI企業)にとって、この判断は重い宿題になります。Grok のような一般向け LLM に脱衣機能を搭載すること自体が、社会的責任と相容れないと判断されたからです。

技術企業への警告:AI 利用規約を再考する時

この局面は、生成AI企業の利用規約や機能設計についてのあり方を問う転機です。以下の問いが業界全体に浮かぶようになるでしょう。

  • 「無害」と設計者が考える機能でも、実装されると被害が大きい場合、どう判断するのか
  • AI 利用規約の「禁止事項」は、実装レベルで強制できているのか
  • 企業の自主規制と法的規制のバランスは保つべきか、それとも法を優先するか

次のステップ:他州への波及と業界内への問い

ミネソタ州の禁止令は、他州の議員や生成AI企業の経営層に重い問いを投げかけています。この法律が他州でも可決されるなら、AI企業は機能設計や提供地域を大きく見直さなければなりません。

一方で、生成AI の自由度と規制のバランスについても議論が続くでしょう。過度な規制は技術発展を阻害し、過度な自由は社会的被害を招く——その均衡点を探る作業は、今後も続きます。

まとめ:社会が AI に値する責任を問う時代へ

Grok の脱衣機能による危機と、ミネソタ州の法的対応は、AI 産業が曲がり角を迎えたことを示しています。技術の自由と社会的責任のバランスは、企業の自主判断だけには委ねられなくなりました。ミネソタ州の先制的な禁止令は、それを明確に物語っています。