OpenAIの元メンバーがSafe Superintelligence(SSI)を立ち上げた。安全な超知能に「世界で初めて直球で取り組むラボ」としている。

OpenAIの経営陣とAIの安全性に関して対立していた人物が設立

SSIを立ち上げたのは、OpenAIの共同創業者であるIlya Sutskever氏、チーフサイエンティストを務めたDaniel Gross氏、エンジニアのDaniel Levy氏の3人。6月19日付けで設立を発表した。

社名の“Safe Superintelligence”を直訳すると”安全な超知能”。安全な超知能という1つの目標、1つの製品を掲げ、世界で初めてストレートに取り組む研究所、とSSIを説明している。本拠地は米パロアルトで、イスラエル・テルアビブにも拠点を持つ。

製品については、具体的に触れていないが「革命的なエンジニアリングと科学的なブレークスルーによって解決すべき技術的問題として、安全性と能力に同時にアプローチする」「安全性を優先させながら、可能な限り迅速に能力を向上させる」と方針を説明している。

Sutskever氏と同時期にOpenAIを去ったJan Leike氏は、その後にAIスタートアップでOpenAIのライバルであるAnthropicに移籍した。

Sutskever氏とLeike氏は、OpenAIで超知能に取り組んでいたが、AIの安全性へのアプローチについてOpenAIの経営陣と対立していたと言われている。