あなたの画面の向こうで誰かが見ている

スマホやAIが当たり前の今、その裏側には人の目があります。インドの地方で暮らす女性たちが、家の片隅でAI向けの映像をチェックする仕事をしています。映像に含まれる有害な内容を見て判定する作業を、私たちは「モデレーション」と呼びます。モデレーションは、ネット上の危険な情報を検出し削除する重要な仕事です。

メンバーの一日を覗くと

Monsumi Murmuさんは自宅のベランダにノートパソコンを置き、泥壁のそばで作業しています。電波が届く場所を探し、家の生活音と作業が混ざり合う環境です。画面には暴力的な場面が映ることがあり、最後まで確認することが求められます。早送りで見ても、中断は許されないことがあるといいます。

家と仕事の境界が薄くなる

彼女たちは通勤せず家庭で働ける利点を享受しています。ですが同時に、仕事と私生活の境目が曖昧になります。子どもの声や調理の音が背景に流れる中で、トラウマになりうる映像を日々扱うのは簡単ではありません。身近な場所で深刻な映像に触れることは、心の負担となります。

心理的な負担とその影響

長時間にわたる暴力や性的表現の視聴は、精神的ストレスを引き起こします。現場からは疲労感や不眠、フラッシュバックといった声が聞こえます。支援や休息の機会が十分でない場合、負担は蓄積します。これは個人だけでなく、家族や地域にも影響を及ぼします。

なぜこうした状況が生まれたのか

背景には、AI需要の急増と低賃金、そしてリモートワークの広がりがあります。グローバル企業は大量のデータ処理を外部に委託します。結果として、報酬や働き方の透明性が追いつかない現場が生まれました。地域の女性たちが仕事を得る一方で、保護策は後手に回っています。

具体的に求められる対策

現場の声を踏まえれば、いくつかの改善が考えられます。まずは労働条件の可視化です。賃金や勤務時間、休憩の明確化が必要です。次に心理的ケアの提供です。定期的な相談窓口や休職制度が役立ちます。最後に、企業側の倫理基準と規制枠組みの整備が重要です。

未来への希望

デジタル経済は広がり続けます。だからこそ、そこで働く人々の安全も進化させるべきです。現場の声を政策や企業方針に反映すれば、より公平で持続可能な仕組みが作れます。家庭から世界を支える女性たちが、安心して働ける日が来ることを願います。