New Yorker 誌に掲載された100件以上のインタビューに基づくプロフィール記事により、OpenAI から安全性研究者が離脱した根本原因が明かされた。同社の CEO である Sam Altman が AI安全性に対する無関心を率直に述べており、これが多くの研究者を同社から去らせ、競合企業 Anthropic の設立につながったことが報じられている。

Altman の発言が語る立場の違い

Altman は記事の中で「私のビブス(雰囲気)は、従来の AI安全性関連のものとは合わない」と述べている。この発言は、安全性を重視する研究者たちとの哲学的溝を率直に表現している。2026年4月に公開されたこのプロフィール記事は、OpenAI の組織文化と安全性戦略の相違を浮き彫りにしている。

Anthropic 創業への道

OpenAI で安全性に関心を持つ研究者たちは、Altman の姿勢に失望し、独立して新企業 Anthropic を設立した。この企業は、安全性と倫理を重視する AI開発を掲げており、OpenAI との経営哲学の対比が明確である。

記事によれば、OpenAI は安全性重視のチームを解散させ、安全性テストを削減したと指摘されている。こうした組織的な決定が、優秀な研究者の流出を招いた要因となったと考えられる。

一貫性を欠く判断

Altman の決定の矛盾も記事で指摘されている。2019年には GPT-2 を「リリースするには危険すぎる」と警告していたが、その後 OpenAI は GPT-3.5 や GPT-4 といった、はるかに能力の高いモデルを無料で公開している。

Altman は Pentagon(米国防総省)との契約に対する従業員の懸念にも耳を傾けず、契約を推し進めた。これらの判断の変化は、Altman が当初の信念から距離を置いていることを示唆している。

業界への影響

この報道は AI業界全体に波紋を広げている。安全性と企業の効率性・利益の間での葛藤は、他の AI企業でも同様の課題となっており、どのバランスを取るかが企業の根本的な判断を左右する。OpenAI の事例は、AI開発における安全性の位置づけが経営陣の価値観に大きく依存することを示している。