OpenAI的超级对齐团队创新了超强智能人工智能的控制方法

OpenAI超级对齐团队创新控制超强人工智能的方法

OpenAI表示,根据最近的ENBLE报告,它在管理超智能AI系统的能力方面取得了进展。OpenAI的首席科学家Ilya Sutskever带领的“超级对齐”团队开发出了一种指导AI模型行为的方法,使其在越来越智能的过程中能够保持安全。

“超级对齐”团队成立于7月,致力于确保AI在接近并超越人类智能的过程中保持安全和有益。“AGI正在迅速接近,”OpenAI的研究员Leopold Aschenbrenner告诉ENBLE。“我们将会看到超人类模型,它们将具有巨大的能力,可能非常危险,而我们目前还没有控制它们的方法。”

OpenAI的最新研究论文介绍了一种叫做“监督”的技术,即较低级的AI模型指导更复杂的模型行为。这种方法旨在保持优越模型的能力,同时确保其符合安全和道德准则。这种方法被视为管理潜在超人类AI的关键步骤。

实验使用了OpenAI的GPT-2文本生成器来教导更先进的GPT-4系统。研究人员测试了两种方法来防止GPT-4性能下降。第一种方法是逐渐训练更大的模型,而第二种方法是对GPT-4进行算法调整。后者证明更有效,尽管研究人员承认完全的行为控制尚未得到保证。

行业反应和未来方向

AI安全中心主任Dan Hendryks赞扬OpenAI对于控制超人类AI的积极态度。“超级对齐”团队的工作被视为重要的第一步,但还需要进一步的研究和开发来确保有效的控制系统。

OpenAI计划将其计算能力的大部分用于超级对齐项目,并呼吁外部合作。该公司与Eric Schmidt合作,向致力于研究AI控制技术的研究人员提供1000万美元的资助。此外,明年还将举办一个关于超级对齐的会议,进一步探讨这个关键领域。

Ilya Sutskever是OpenAI的联合创始人,也是该公司技术进展中的重要人物之一,他共同领导了“超级对齐”团队。他在项目中的参与至关重要,特别是在OpenAI最近发生的治理危机之后。Sutskever的专业知识和领导能力对推动项目向前发展起到了重要的作用。

控制超智能AI的方法的开发是一项复杂而紧迫的任务。随着AI技术的快速发展,确保它与人类价值和安全相符合变得越来越重要。OpenAI在这个领域的倡议是一个重要的步骤,但实现可靠和有效的AI控制系统的道路仍然需要全球AI研究界的协作努力。