タグ一覧に戻る

AI アーキテクチャ

記事数: 1
Allen Institute × UC Berkeley、Mixture-of-Experts モデルを12.5%に圧縮―EMO で AI 推論のコスト削減が現実に

Allen Institute × UC Berkeley、Mixture-of-Experts モデルを12.5%に圧縮―EMO で AI 推論のコスト削減が現実に

Allen Institute for AI と UC Berkeley の研究チームが、従来の Mixture-of-Experts(MoE)モデルを、全エキスパートの12.5%だけで従来同等の性能を実現する新手法『EMO』を発表。メモリ制約環境での AI 運用が劇的に改善される可能性。

続きを読む