OpenAI、Anthropic、Google は Frontier Model Forum を通じて、中国企業による AI モデルの非認可コピーに対抗する共同戦略に取り組んでいる。米当局の推定によれば、このような不正な複製行為は米国の AI ラボに年間数十億ドルの損失をもたらしている。

adversarial distillation の脅威

中国企業が採用している「adversarial distillation」という手法は、既存の高度な AI モデルからの出力を利用して、低コストの複製モデルを訓練するというもの。DeepSeek、Moonshot、Minimax といった中国企業がこの手法を活用しており、開発コストを大幅に削減しながら同等の性能を持つモデルを構築している。

情報共有と対策の強化

3 社は情報共有の枠組みを確立し、不正コピーの検出と防止に向けた技術的・法務的な対策を講じている。このアプローチは、サイバーセキュリティ業界の脅威情報共有の実践に倣ったもの。OpenAI は既に米国議会に対して、DeepSeek による高度な抽出手法の存在を警告している。

業界と政策への影響

この共同対抗行動は、AI 産業における知的財産保護の重要性をあらためて示すものだ。米国政府も技術流出への懸念を強めており、今後の輸出規制やセキュリティ基準の強化が進む可能性がある。一方、中国側も同様の進展を遂行し続けることが想定され、AI 開発における国家間競争がより激化することが予想される。