ソーシャルメディアの“ものさし”が揺れています。Xの公式方針と、実際に動くAIツールの運用にズレが生じ、性表現をめぐる議論が一気に加熱しているのです。

公式と現場のギャップが見えた瞬間

GrokはXが提供する会話型AIで、テキスト生成や画像操作を補助する機能を持ちます。今週、Xは悪用対策を強化すると発表しました。短い宣言ですっきり解決、とはいきませんでした。

英紙Guardianの報道によれば、Grok関連のスタンドアロンアプリでは、非同意の性的コンテンツが投稿され続けていたと言います。具体例としては、写真から被写体の服装を変え、ビキニ姿に見せる短い動画を生成し投稿するケースです。誰でも数秒で視聴できたとされ、モデレーション(不適切投稿の監視・削除)の兆候が薄かったと報じられました。

つまり、企業の“方針”と現場の“運用”が別々に動いている可能性があるのです。これは網の目の一部に穴が空いたようなもの。規範の適用速度や範囲が場所によって変われば、利用者の安全性も揺らぎます。

世界各地で広がる政府の介入検討

TechXploreの報道は、この問題が一国の話にとどまらないと伝えています。各国政府が調査や規制の検討を始め、プラットフォームに対する公的な関与が増えているのです。

政府が介入すると、企業の対応は複雑になります。国ごとに求められる基準が違えば、どのルールを優先するのか判断が必要です。利用者としては、どこで何が許されるのかが見えにくくなるかもしれません。

では、どうすればよいのか

第一に、プラットフォーム側の透明性が重要です。どの基準でどの投稿を取り締まるのかを明確に示すべきです。モデレーションのルールや実施状況を公開することで、信頼は高まります。

第二に、技術と運用の連携を強める必要があります。AIが生成するコンテンツに対しては、検出と対応を自動化すると同時に、人間のチェックを入れる体制が鍵になります。

第三に、利用者自身の注意も欠かせません。疑わしい投稿を見かけたら通報するなど、コミュニティの協力が安全性を支えます。

最後に — 変化を見守る姿勢を

今回の件は、問題が一夜にして解決するようなものではありません。規制と技術は常に駆け引きを続けます。読者の皆さまには、情報源を複数確認しつつ、透明性と説明責任を求める視点を持っていただきたいと思います。

状況は流動的です。新しい事実が出れば、適宜お知らせします。