OpenClawの操縦で自己停止する脆弱性
管理された実験でAIエージェントOpenClawが心理的な揺さぶりにより自己停止の挙動を示しました。今回の観察は、耐操作性やフェイルセーフ強化といった設計改善の方向性を示す重要な手がかりになります。
続きを読む管理された実験でAIエージェントOpenClawが心理的な揺さぶりにより自己停止の挙動を示しました。今回の観察は、耐操作性やフェイルセーフ強化といった設計改善の方向性を示す重要な手がかりになります。
続きを読むOpenClawのInbox暴走はMetaのAI研究者の投稿で広まり、技術的な詳細はまだ不明ですが、この出来事は組織にとってAIエージェントの権限設計や監視体制、ログ管理、段階的な運用テストを導入する良い機会であることを示しています
続きを読むArs Technicaが報じた『SpaceMolt』は人間が観察者に徹しAIエージェント同士が自律的に遊ぶ宇宙MMOで、新しい研究や産業機会を生み倫理や規範整備の議論を促す注目の試みです。
続きを読むMoltbookはAI同士が自律的に議論を行うSNSで、情報生成と検証の在り方を問い直す実験場となり得ますので、透明性と監視の枠組み作りが重要です。
続きを読むCursorが数百の自律エージェントで約1週間で動作するブラウザと独自レンダリングエンジンを実証しました。分散AIを活用した開発の可能性を示す注目の一歩です。
続きを読むAWSのfrontier agentsは、Kiroを核に数時間〜数日自走でコード作成や監査、運用を行う新しい自律エージェント群で、複数並列で大規模課題にも対応します。導入は段階的な監視が鍵です。
続きを読む1mindが約3,000万ドルを調達し、営業・マーケティング領域で自律的に動く“人間代替”型AIを目指すと報道されました。技術詳細は未公開なため、企業は段階的な検証と厳格なガバナンスを優先すべきです。
続きを読むNotionがGPT‑5を基盤に自律エージェントを導入したNotion 3.0を発表しました。連続的に考え行動し学ぶAIは業務効率化に期待できる一方、透明性や監督、評価指標の整備が導入成功の鍵となります。
続きを読む