AIスタートアップのArcee AIが、4000億パラメータの新型言語モデル「Trinity-Large-Thinking」をApache 2.0ライセンスでリリースしました。VC資金の約50%に相当する2000万ドルをモデル開発に投じた野心的なプロジェクトです。

混合専門家設計とエージェント特化

Trinity-Large-Thinkingの特徴は混合専門家モデル(Mixture-of-Experts)アーキテクチャで、256個の専門ネットワークを搭載しながら、トークンあたり13億パラメータのみを活用します。512Kのコンテキストウィンドウを備え、実用的な長文処理に対応しています。

Claude Opus との競合性能

エージェントタスクの評価では、Tau2-Airlineで88点(1位同点)、PinchBenchで91.9点を達成し、Claude Opus 4.6との競争性能を実現。一般的な推論ベンチマークではOpusに劣るものの、ツール使用やタスク分解が必要な実務的シナリオでは対等な実力を発揮します。

開発技術:SMEBU の革新

Arcee AI の開発チームは「SMEBU」という独自のロード・バランシング手法を開発し、17兆トークンの学習を通じて全専門家の安定的な最適化を実現。8兆トークン以上が合成データ(Web テキスト改写、コード、多言語コンテンツ)で構成され、言語多様性と実務的スキルを両立させています。

オープンソース戦略による競争力

Apache 2.0 でのリリースにより、企業・研究者の自由な活用を実現。高額な商用モデルに依存しないカスタマイズと微調整が可能になり、オープンソース AI エコシステムでの影響力拡大が予想されます。

Arcee AI の投資規模と実装品質は、大手AI企業に対するスタートアップの競争力を象徴する事例となります。