メモリスタで半減——AI消費電力を大幅削減するNature論文
hafnium diselenide を使ったメモリスタチップが、従来比で消費電力を50%以上削減。97.5%の精度で、neuromorphic computing やエッジAIへの活用が期待される。
AI の根本的な課題:データ移動
AI モデルの学習や推論で最も電力を消費する処理は何か。計算ではありません。データの移動です。従来のコンピュータは「メモリと処理ユニットが物理的に分離」されており、データを絶えず往復させるため、膨大な電力を必要とします。
「AI ワークロードはメモリ中心です。計算の時間や電力ではなく、すべてはデータ移動にある」——研究チームの教授は、この課題の本質を指摘します。
メモリスタ:「記憶する素子」
メモリスタ(memristor)は、この課題を根本から解決する可能性を秘めています。この素子は、イオンで情報を運ぶ特性を持ち、電力がなくても抵抗状態を「記憶」できます。つまり、メモリと処理を同じ場所で実行できるのです。
今回の研究は hafnium diselenide という超薄い2D素材を使い、シリコンセレクタと組み合わせた one-selector-one-memristor 構成で実装。従来のアプローチとは大きく異なります。
性能:ナノ秒単位、97.5%の精度
検証は 32×32 のメモリスタアレイで行われました。
- スイッチング速度:ナノ秒単位で切り替え可能
- 耐久性:26,000回のプログラミングサイクルでも劣化なし
- 認識精度:パターン認識タスクで 97.5%の精度を達成
これは信頼性が必要とされる AI ハードウェアにおいて、実用的な水準です。
消費電力:50%以上の削減
従来の手法と比べて、time-domain sensing circuits を使用することで、消費電力を「半分以下」に削減しました。数字にすれば、複雑な計算タスクで数倍の削減が期待できます。
実用化の見通し
注目すべきは、この技術が「シリコン互換」であり、新規の製造プロセスや特殊な材料を必要としないという点です。既存の半導体工場で生産可能となれば、採用障壁は大きく低下します。
研究チームは現在、アレイサイズの拡張と複雑なデータセット対応に取り組んでおり、neuromorphic computing や edge AI (エッジでのローカル推論)への応用が期待されています。
スマートフォンのオンデバイス AI、IoT センサの自律処理、自動運転車のリアルタイム判断など、電力制約が厳しい場面での活用が見えてきました。
AI の電力問題に光明
データセンターの電力消費が社会的課題となるなか、ハードウェアレベルでの根本的な改善は業界にとって大きな朗報です。メモリスタがいつ実際の製品に組み込まれるかは未定ですが、その日が来れば、AI の使い方そのものが変わるかもしれません。