OpenAIは、トップクラスの機械学習研究者とエンジニアで構成される新チーム「Superalignment」を社内に設立する事を発表した。このチームの目的は、「人間を超える超知能を持つ人工知能が暴走しないよう」に、スケーラブルな学習方法を開発することである。 発表の中でOpenAIは、超知能は人類が生み出した「最もインパクトのあるテクノロジー」になり、世界の多くの問題を解決するのに役立つだろうと述べた。ただし、この超知能AIは非常に危険で、人類絶滅につながる可能性があるともOpenAIは考えている。 同社によれば、現在のところ、超知的AIを操縦したりコントロールしたりする方法はないという。現在のAIモデルには、人間がAIを監督する強化学習と人間によるフィードバックが使われている。 Ilya Sutskever氏とJan Leike氏が共同で率いるこのチームは、AIシステムの安全な制御を保証