AIの攻撃的サイバー能力が5.7ヶ月ごとに倍増——安全研究が警告
AIの攻撃的サイバー能力は2024年以降5.7ヶ月ごとに倍増していると安全研究機関Lyptus Researchが報告。最新モデルは人間専門家3時間相当の高度タスクを50%の成功率で実行できる水準に達した。
AIの攻撃的サイバー能力が急速に向上している実態を、AI安全研究機関Lyptus Researchが数値で示した。2026年4月5日に公開された研究によると、AIの攻撃的サイバー能力は2019年以降9.8ヶ月ごとに倍増しており、2024年以降はそのペースが5.7ヶ月へと加速している。
最新モデルは専門家3時間相当のタスクを自律実行
研究はMETRが開発した「タイムホライズン」指標を採用し、プロのセキュリティ専門家10人の協力のもと291タスクを検証した。タイムホライズンとは、AIが一定の成功率で完了できる人間専門家作業の所要時間を示す指標だ。
2026年時点の最先端モデルであるOpus 4.6とGPT-5.3 Codexは、200万トークンの予算を与えた場合、人間専門家が約3時間かけて行う高度な攻撃タスクを50%の成功率でこなせる水準に達した。2019年時点のGPT-2はわずか30秒相当だったと比較すると、7年間で能力が飛躍的に拡大したことがわかる。
トークン予算が増えるほど性能は大幅に向上する。GPT-5.3 Codexに与えるトークンを200万から1000万に増やすと、対応できるタスクのタイムホライズンは3.1時間から10.5時間へと約3倍に伸びる。研究チームはこの結果から、測定手法が実際の進歩速度をなお過小評価している可能性があると指摘する。
オープンソースモデルは約5.7ヶ月遅れ
クローズドソースモデルとオープンソースモデルの間には能力差がある。現時点でオープンソースモデルはクローズドソースに約5.7ヶ月分遅れているとされ、ちょうど倍増サイクル1回分に相当する。しかし倍増ペースが続けば、その差は相対的に縮まっていく可能性もある。
全研究データはGitHubとHugging Faceで公開されており、第三者による検証が可能な設計になっている。
安全策の必要性を訴える
Lyptus Researchはこの研究を通じ、AIの攻撃的能力向上が単なる技術的進歩にとどまらず、実際の脅威環境を変えつつあると主張する。倍増ペースが5.7ヶ月で推移すれば、1年後には現在比約4倍の能力水準に達する試算になる。
同研究は、AIを使った高度なサイバー攻撃への防衛策や、モデルの悪用防止策を業界全体で議論すべき段階に来ていると訴えている。詳細な報告書はLyptus Research公式サイトから入手できる。