六个月前,埃隆·马斯克呼吁暂停人工智能的发展然而,相反,人工智能的发展加快了

六个月前,马斯克呼吁暂停人工智能发展,然而相反,人工智能发展加快

六个月前的这个星期,许多知名的人工智能研究人员、工程师和企业家签署了一封公开信,呼吁暂停开发比OpenAI最新的GPT-4语言生成器更强大的人工智能系统,理由是人工智能的发展速度如此之快、难以预测,以至于可能会消灭无数的工作岗位,使我们淹没在虚假信息中,并且正如一系列恐慌的头条报道所指出的那样,可能会摧毁人类。哎呀!

你可能已经注意到,这封信并没有导致人工智能的暂停,甚至没有减缓发展的速度。相反,公司们加快了构建更先进人工智能的努力。

埃隆·马斯克(Elon Musk)作为其中一位最知名的签署者,没有等太久就忽略了自己呼吁减速的建议。今年7月,他宣布成立了一个名为xAI的新公司,他表示该公司将超越现有的人工智能,与OpenAI、谷歌和微软竞争。许多谷歌员工也签署了这封公开信,并继续留在该公司,准备发布一个名为Gemini的人工智能模型,该模型具有比OpenAI的GPT-4更广泛的能力。

ENBLE联系了超过十几位签署者,询问他们认为这封信产生了什么效果,以及在过去的六个月里,他们对人工智能的警惕程度是加深了还是减淡了。回应的人中没有人似乎认为人工智能研究会真的停滞不前。

“我从来没有认为公司们会自愿暂停,”麻省理工学院的天体物理学家马克斯·泰格马克(Max Tegmark)说道,他是这封公开信背后的组织Future of Life Institute的负责人,他承认这种说法可能让整个项目看起来很愤世嫉俗。泰格马克说,他的主要目标不是暂停人工智能的发展,而是使人们对这项技术的危险进行正当讨论,包括可能对人类产生威胁的事实。他说,结果“超出了我的预期。”

对我的后续问询的回应也显示了专家们对人工智能担忧的巨大多样性,而且许多签署者似乎并不是对存在危险的担心过分痴迷。

怀俄明大学的副教授拉斯·科特霍夫(Lars Kotthoff)表示,他不会再签署同样的信件,因为很多呼吁暂停的人仍在努力推进人工智能的发展。“我愿意签署类似方向的信件,但不是完全像这封信那样的,”科特霍夫说。他补充说,他目前最担心的是社会对人工智能发展的强烈反弹,这可能通过扼杀研究资金和人们对人工智能产品和工具的抵制而引发另一次人工智能寒冬。

作为签署者,我在过去的一年左右做了些什么呢?我一直在进行人工智能研究。

其他签署者告诉我他们愿意再次签署这封信,但他们真正担心的似乎是近期问题,如虚假信息和失业,而不是终结者式的情景。

“在互联网和特朗普时代,我更容易看到人工智能如何通过扭曲信息和破坏知识来导致人类文明的毁灭,”亚利桑那州立大学从事微电子研究的教授理查德·基尔(Richard Kiehl)说道。

“我们会得到一个入侵所有军事服务器并在全球范围内发射核弹的Skynet吗?我真的不这么认为,”英国兰开斯特大学的人工智能博士生斯蒂芬·曼德(Stephen Mander)说道。然而,他确实认为广泛的工作岗位替代正在逼近,并将其称为社会稳定的“生存风险”。但他也担心这封信可能会激发更多人对人工智能进行实验,并承认自己没有按照信件的要求减速。“作为签署者,我在过去的一年左右做了些什么呢?我一直在进行人工智能研究,”他说。

尽管这封信未能引发广泛的暂停,但它确实帮助将人工智能可能扑灭人类的想法推向主流讨论的话题。它之后还有一份由OpenAI和谷歌DeepMind AI部门的领导人签署的公开声明,将人工智能带来的生存风险与核武器和大流行病的风险进行了比较。下个月,英国政府将举办一次国际“人工智能安全”会议,各国领导人将讨论人工智能可能造成的潜在危害,包括生存威胁。

也许人工智能的末日论者通过暂停信件操纵了叙事,但对于最近人工智能的快速进展所带来的不安全感是真实的,也是可以理解的。在写信之前的几周,OpenAI发布了GPT-4,这是一个大型语言模型,使ChatGPT在回答问题方面具有了新的能力,这使人工智能研究人员感到意外。随着GPT-4和其他语言模型的潜力越来越明显,调查显示公众对人工智能技术的担忧超过了兴奋。这些工具可能被滥用的明显方式正在推动世界各地的监管机构采取行动。

这封信要求在AI开发上实施为期六个月的暂停,可能给人们留下了一种认为签署者们预期不久将发生不好的事情的印象。但对他们中的许多人来说,一个关键的主题似乎是不确定性 – 关于AI到底有多强大,事物可能以多快的速度发生变化,以及技术是如何被开发的。

“许多AI怀疑论者希望听到一个具体的末日场景,”麻省大学阿默斯特分校的教授Scott Niekum说道,他致力于AI风险研究并签署了这封信。“对我来说,很难想象出详细的具体情景,这正是问题所在 – 它显示了即使是世界级的AI专家也很难预测AI的未来以及它如何影响一个复杂的世界。我认为这应该引起一些警觉。”

不确定性并不能证明人类处于危险之中。但是,这么多从事AI工作的人似乎仍然感到不安,这可能足以促使开发AI的公司采取更加深思熟虑或更加缓慢的方法。

“许多本来可以充分利用进一步进展的人现在却更倾向于看到一个停顿,”签署者之一、卡内基梅隆大学从事AI工作的教授Vincent Conitzer说道。“无论如何,这应该是一个信号,表明出现了非常不寻常的情况。”