スマホ一枚で“別人”になる時代

スマホの写真が、たった数分で別人の映像に変わる。これがディープフェイクです。ディープフェイクとは、AIで映像や音声を合成し、実在の人物をあたかも別の行動をしているように見せる技術です。

警察の委託調査によると、回答者の約4分の1が性的ディープフェイクの作成や共有を容認する傾向を示しました。被写体の同意がない場合でも同様の傾向が見られると報じられています。数字だけ見ると、思ったより身近な問題だと感じるはずです。

なぜそこまで問題なのか

被害は個人の尊厳を壊します。プライバシー侵害だけでなく、就職や人間関係、精神的被害につながり得ます。英国の高位警察官は、AIの普及が女性や女児に対する暴力を加速させるおそれがあると警告しています。火種が小さくても、放置すれば広がるのです。

イメージとしては、SNS上の一枚の写真が火種で、ディープフェイクが強風になって燃え広がるようなものです。被害の拡大を抑えるには、初期段階での対処が肝心です。

技術企業と法の責任はどこにあるか

現状、技術は急速に進みますが、法整備は追いついていません。企業側の監視・削除体制やアルゴリズムの設計が不十分だと、被害が流通し続けてしまいます。

考えられる対応策は次のとおりです。

  • コンテンツの出所を示す技術(プロベナンス)やウォーターマークの導入
  • 悪用が疑われるモデルの利用制限や利用規約の強化
  • プラットフォーム上での迅速な通報・削除フローの整備
  • 企業の責任範囲を明確にする法的枠組み

政策決定者には、こうした技術的・運用的対策を組み合わせたルール作りが求められます。

個人が今すぐできること

被害を避けるために私たちができる現実的な対策もあります。

  • 情報の出所を疑って見る習慣をつける
  • SNSのプライバシー設定を見直す
  • 不審な画像や映像はスクリーンショットやURLで証拠を保存する
  • 被害にあったら速やかにプラットフォームや警察、支援団体に相談する

具体的には、プラットフォームの通報ボタンを見つけておくことや、信頼できる相談窓口をメモしておくことが役立ちます。

今後の見通しと私たちの選択

AIは便利さをもたらす一方で、新たなリスクも生みます。被害を抑えるには、企業の技術責任、明確な法規制、そして市民一人ひとりのデジタルリテラシーが三本柱として必要です。

最後に一言。技術をただ恐れるのではなく、正しく使わせる仕組みを作ることが大切です。日常から情報の見極め力を磨き、問題に気づいたら声を上げる――その小さな行動が社会を守る大きな力になります。