導入

スマホに1日100回も動画通話がかかってくる光景を想像してください。
そんな極端な数ではなくとも、日常のやり取りが入り口になる時代です。WIREDの取材で明らかになったのは、Telegram上に広がる「AI顔モデル」募集という新しい動きでした。表向きは“モデル募集”でも、裏で詐欺に使われる恐れがあると報じられています。

Telegramの募集の実態

複数のTelegramチャンネルで同じ文言の募集が確認されました。募集内容は「AIの顔モデルになってほしい」というものです。短時間の動画通話を重ねて顔のデータを集める手口です。チャネル間で求人が共有され、情報が広く拡散していました。まるで求人の“ネットワーク”が勝手に広がるような状況です。

誰がターゲットになるのか

報告では応募者の多くが女性だとされています。必ずしもすべてが被害に使われるとは限りませんが、顔データを得た後の用途が問題になります。動画通話の依頼や個人情報の提示が発生したら警戒してください。知らない相手との通話で個人情報を渡す必要はありません。

なぜこの手口が厄介なのか

人の顔は信頼の“近道”です。画面越しの表情は安心感を与えます。そこを利用して信頼を築き、詐欺につなげる可能性があります。AIが高精度に顔を合成できる今、実際の顔をデータとして取り込む意図は軽視できません。想像してみてください。目の前の笑顔がコピーされ、別の悪用に回るかもしれないのです。

具体的な対策と注意点

まず、非公式な求人には返信しないことが基本です。短時間の動画通話で顔を撮られると困る場面が増えます。通話を求められたときは相手の出所を確かめてください。Telegramのような公開チャネルでの募集は特に注意が必要です。

個人でできる簡単な対策

  • 不審な求人はスクリーンショットを保存して家族や友人に相談してください。
  • 本人確認が曖昧な相手と動画通話をしないでください。
  • 個人情報や銀行情報は絶対に渡さないでください。

プラットフォームと社会の対応

今回の報道は、プラットフォーム側の監視強化と利用者教育の重要性を浮き彫りにしました。Telegramのようなサービスではモデレーションの限界があります。運営側と利用者の双方で注意を高める仕組み作りが求められます。

まとめ

AI技術の進化は便利さをもたらしますが、同時に新たなリスクも生みます。WIREDの取材が示すように、顔を扱う募集は注意が必要です。非公式な求人には慎重に対応し、個人情報は厳重に守ってください。疑わしい依頼に対しては一呼吸置く習慣が、いま最も有効な防御になります。