職場で浸透する「感情読み取り」ツール

大手企業が従業員の感情を監視するAIツールを静かに導入しています。MetLife はコールセンター職員の音声から「ピッチとトーン」を分析。Burger King は「Patty」という会話評価チャットボットをテスト中。さらに Framery はバイオセンサー付きオフィスチェアで心拍数や呼吸を測定するなど、職場監視は既に日常化しつつあります。

「科学的根拠」の危うさ

これらツールの多くは、心理学者ポール・エクマンの「6つの基本感情説」に依存しています。しかし、この理論は広く「過度に単純化されており、方法論上の欠陥がある」と指摘されてきました。神経科学者の Lisa Feldman Barrett は明確に述べています。「顔の表情や声のトーンに、本来的な感情的意味はない。あるのは相対的な意味だけだ」と。実際、アメリカ人が怒るときに眉をひそめるのはわずか35%程度の頻度に過ぎません。

バイアス——黒人は「怒っている」と判定される

研究者 Lauren Rhue による研究は、感情認識AIの人種差別的バイアスを明らかにしました。AI は黒人の NBA 選手を白人選手より「怒っている」と判定してしまう——たとえ笑っていてもです。

職場で同じシステムが使われれば、特定の人種や背景を持つ従業員が不利な評価を受ける可能性は十分あります。

既に起きている実害

抽象的な問題に留まりません。実際の被害者がいます。

UnitedHealth の社会福祉職員は、患者と対面で話している最中にキーボードから手を離すと(当然です)、システムに「非活動」と記録され、格下げされました。HireVue と Intuit は聴覚障害者の昇進を拒否した際、「積極的傾聴を練習すべき」という感情分析AI の診断を理由としました。

規制と市場のズレ

一方で動きはあります。EU は AI 法で職場での感情分析ツールを禁止することを決定。プライバシーと労働者の尊厳を守る歴史的な一歩です。

ただし市場は逆方向。世界市場は2030年までに現在の3倍、9億ドル規模へ拡大するとの予測もあります。規制が追いつく前に、企業の導入は加速するかもしれません。

問われているのは「信頼」

感情分析AI が何の科学的根拠もなく、バイアスを内包しながら、既に職場で人事評価に使われている現実。これは単なる技術問題ではなく、労働者と企業の信頼そのものが問われる局面です。