英国で「AI×児童虐待」対策が新たな局面に入りました。まずは結果から。2024年のAI生成とされた児童性的虐待資料(CSAM:Child Sexual Abuse Material)に関する報告は199件でしたが、2025年は426件にまで増えました。

これは何が起きているのか?

新法の導入により、テック企業や児童保護機関などにAIツールが児童虐待画像を生成するかを直接検査する権限が与えられる見込みです。イメージすると、車検でブレーキやライトを点検するように、AIの挙動や安全策を現場で確認するイメージです。

検査権限の中身と残る不明点

新法は検査そのものを想定していますが、細部はまだ決まっていません。たとえば:

  • どこまで企業のコードや内部データに入れるのか
  • どんな入力(テストプロンプト)で試すのか
  • 誤検出をどう防ぐのか

これらは今後の規定で決められます。透明性と法的根拠、当事者の説明責任が重要です。

なぜ報告件数が増えたのか?

報告の増加(199件→426件)は、必ずしも“事案そのものの激増”を意味しません。背景としては、検出技術の向上、通報体制の整備、あるいは報告基準の変更などが考えられます。言い換えれば、より多く見つかるようになった、という可能性もあるのです。

企業・利用者・被害者への影響

企業は検査対応でコストや工数が増える恐れがあります。利用者は入力や出力の監視でプライバシー懸念が生じかねません。一方、早期発見による被害者支援や捜査の迅速化というメリットもあります。

バランスが重要です。過剰監視や誤検出は逆効果になり得ます。したがって、独立した第三者による監査明確な技術基準が求められます。

今後の注目点(チェックリスト)

  • 検査の具体的手順と透明性の担保
  • 第三者監査と説明責任の仕組み
  • 誤検出を抑える技術的基準の整備
  • 報告基準や検出アルゴリズムの公開

最後に一言。技術は道具です。道具をどう使うかで、社会の安全は大きく変わります。新法と運用次第で、AIは被害抑止の強い味方にも、過剰監視の温床にもなり得ます。今後のルール作りと公開データに、ぜひ注目してください。