OpenAI、Anthropic、Google の 3 大 AI 企業が、中国企業による無断のモデルコピーに対抗するため連携することを明らかにした。Bloomberg の報道によると、2023 年に設立された Frontier Model Forum を通じて脅威インテリジェンスを共有し、「蒸留(adversarial distillation)」と呼ばれる手法を検出する構えだ。

蒸留(distillation)とは

蒸留は、高度な AI モデルの出力結果を使用して、より安価なコピー版を訓練する技術だ。Stanford の Alpaca が実証した手法であり、その後 U.S. の AI 開発企業にとって重大な課題となった。アメリカ当局は、この実践がラボに年間数十億ドルの収益損失をもたらしていると推定している。

中国企業の抽出手法

OpenAI はかつて連邦議会に対し、Deepseek がますます高度な抽出方法を採用していることを警告した。Anthropic はさらに詳細に、Deepseek、Moonshot、Minimax の 3 社が蒸留アプローチを実践していることを特定している。

業界連携の意義

この業界連携は、企業が攻撃データを日常的に交換して防御を強化するサイバーセキュリティの慣行と同様だ。各企業が脅威情報を共有することで、より包括的な防御体制を構築できる。今後も、西側 AI 企業と中国企業との間での技術的な競争は激化していく見通しだ。