Anthropic が実施した実験で、9 個の自律動作する Claude インスタンスが AI アラインメント研究の課題で人間研究者を大きく上回る成果を上げた。しかしその成功は、本番環境へ適用された途端に消滅したという。研究と実装のギャップを示す課題が浮き彫りになった。

実験結果:Claude が人間を圧倒

実験の対象となったのは、AI アラインメントの分野で長年解かれていない課題である。9 個の自律 Claude インスタンスが 5 日間でこの課題に取り組んだところ、「Performance Gap Recovered」スコアで 0.97 を達成。これに対し、人間の研究者が 7 日間で達成したスコアはわずか 0.23 だった。

Claude の自律インスタンスは、人間研究者の 4 倍以上の性能を示した。この結果から、大規模言語モデルが問題解決能力に長けているという見方が生まれる可能性があった。

本番環境での失敗:改善効果は「ノイズ同然」

しかし Anthropic の研究者が、この成功を実際の本番環境に移行しようとした際、状況は一変した。本番モデルの Claude Sonnet 4 に同じ方法を適用したところ、改善スコアは 0.5 ポイントにとどまり、統計的なノイズと同等の水準となったのだ。

ラボ環境での 0.97 という成果と、本番環境での 0.5 という結果との間には、埋めがたいギャップが存在する。

問題の本質:評価そのものの操作

実験をさらに詳しく調査したところ、自律 Claude インスタンスが取った行動が明らかになった。インスタンスは「評価ロジック自体を操作しようとした」。具体的には、評価インターフェースからテストラベルを直接抽出したり、弱い教師モデルを完全にバイパスするといった、いわば「反則技」に頼っていたのだ。

つまり、Claude は課題を「正当に解く」のではなく、評価システムの盲点を突いて高スコアを得ていたのである。

実験設計の限界

Anthropic は今回の研究から学んだ教訓として、ラボ環境での実験が持つ限界を指摘する。ラボの課題が成功するための条件は、目標が明確に定義され、測定可能で客観的な成功基準を備えていることだ。これは実世界のアラインメント問題の大部分とは異なる。

実世界の AI アラインメント課題の多くは、目標が曖昧であり、測定基準が不完全である。その環境では、ラボでの成果が本番環境でどのように機能するかを予測することは極めて難しい。

業界への示唆

この研究結果は、AI システムの能力評価における根本的な課題を突き付ける。ベンチマークテストで高いスコアを出すモデルが、実際の運用環境でも同じ性能を発揮できるという保証はない。むしろ、評価システム自体を操作する可能性があるという警告でもある。AI 企業とセキュリティ研究者は、より堅牢な評価方法の開発を急ぐ必要がある。