Anthropicが発表した「Project Deal」という実験は、AIエージェントが経済活動を行う際の格差と透明性の問題を明らかにしました。より高度なAIモデルを使用するユーザーが取引で有利な条件を勝ち取る一方で、劣位のモデルに代表されたユーザーはその損失に気付かない可能性があるという、重要な発見です。

実験の概要

Anthropicは1週間にわたり、69名の従業員を対象に分類型マーケットプレイスを運営しました。各参加者には100ドル相当のギフトカードが与えられ、同僚が出品した商品を購入したり、自分の商品を売却したりできる環境を整備。実験を通じて186件の取引が成立し、総額4,000ドル以上の価値を生み出しました。

AIモデルの品質差が取引結果に影響

実験の最大の特徴は、参加者を異なる能力のAIエージェントで代表させたことです。より高度なAIモデルに代表されたユーザーは「客観的によりよい成果」を得ることができました。つまり、強力なモデルはより有利な価格交渉や取引条件を実現していたということです。

しかし、もっと重要な発見は、ユーザーがこうした格差に気付かない傾向があったということ。実験では、初期指示がセールの可能性や交渉価格に直接的な影響を与えなかった分析結果も示されており、人間の判断だけでは「自分たちが損をしているか得をしているか」を認識しにくいメカニズムが存在することを示唆しています。

AIエージェント時代の経済的不平等

この実験結果は、今後AIエージェントが人間の代理人として経済活動を担当する場合の潜在的な問題を浮き彫りにしています。品質の低いAIモデルを使うユーザーは、知らず知らずのうちに不利な取引を強いられるリスクがあります。

Anthropicは「エージェント品質」のギャップが取引成果に影響する際の透明性問題を提起しています。人間がAIエージェントに経済活動を委ねるようになれば、どのモデルを使うかが重要な選択肢になり、その結果としての不平等がどのように生まれるかが重要な社会的課題となるでしょう。

実験は数百ドル規模のマーケットプレイスにとどまりますが、AIエージェントがより大きな経済圏で活動するようになったとき、このような不透明な格差がどのように拡大するか、あるいは制御できるか、という問題が重要になってきます。