AI批评家Gary Marcus:Meta的LeCun终于开始接受我几年前说过的事情了

AI critic Gary Marcus Meta's LeCun finally accepts what I said years ago.

纽约大学终身教授Gary Marcus最近接受ENBLE的采访,对Meta首席AI科学家Yann LeCun在去年9月的ENBLE采访中的言论进行了反驳。

LeCun对Marcus支持符号操作作为实现更复杂AI的途径的论点表示怀疑。他还表示,Marcus在AI期刊上没有同行评审的论文。

实际上,Marcus确实发表了同行评审的论文,下面的采访中还列出了他的论文清单。但Marcus的反驳更多地涉及两者之间的分歧,他们多年来一直在社交媒体上争论。

“AI有一系列可能的架构空间,”纽约大学终身教授Gary Marcus说。”我们研究的大部分内容都在那个空间的一个小角落里。”

Marcus声称LeCun实际上并没有真正接受Marcus的想法,只是简单地驳斥了它们。他还提出,LeCun没有公正地听取其他学者的意见,比如Judea Pearl,他的关于AI和因果关系的观点构成了一个值得注意的研究领域。

Marcus认为LeCun的行为是深度学习研究者排斥批评声音或推动其他研究途径的同行的一种模式。

“你有一些有很多钱和许多认可的人,他们试图排挤其他人,” Marcus说到LeCun和其他深度学习学者时。他们通过不接触竞争性思想,借用计算语言学家Emily Bender的一个术语,”吸走了房间里的氧气”。

Marcus认为,鉴于Marcus多年来提出的许多批评,LeCun最终同意了这些批评,两位学者之间的分歧是奇怪的。

“基本上,他似乎在说我所说的一切,他曾经说是错误的,都是真理,” Marcus说。 Marcus在书籍中表达了对深度学习的强烈观点,最近的一本是2019年与Ernie Davis合著的《重新启动AI》,虽然早期作品《代数思维》中也有一些元素;还有许多论文,包括他最详细的批评论文《深度学习:一种批判性评估》。

事实上,这两位学者之间的共同点是如此之多,以至于”在另一个世界中,LeCun和我将是盟友,” Marcus说。

此外: Meta的AI专家LeCun:今天的大多数AI方法永远不会导致真正的智能

“LeCun和我在一个问题上完全一致,那就是仅仅扩大规模是不够的,” Marcus说,他指的是制作越来越大的神经网络,如GPT-3本身并不能实现重要的智能。

两位学者之间也存在根本性分歧。Marcus早在《代数思维》时就热情地主张他所谓的”先天性”,即将结构引入思维中以赋予智能。

“我的观点是,如果你看看生物学,我们只是一堆巨大的先天结构的混合物,” Marcus说。他说,LeCun希望一切都是可学习的。

“我认为最大的讽刺是LeCun对AI的最大贡献是卷积的先天先验,有些人称之为平移不变性,” Marcus说,指的是卷积神经网络。

比起这两位研究者,比起他们之间的争论,更重要的是,AI正处于僵局,没有明确的方向来实现人们一直梦寐以求的智能。

“AI的可能架构有很多空间,”Marcus说道。“我们研究的大部分内容都在这个空间的一个小角落里;这个空间的角落还不太好用。问题是,我们如何走出这个角落,开始看其他地方?”

接下来是一份经过编辑缩短的采访文字稿。

如果你想了解Marcus关于AI的最新写作,请查看他的Substack。

ENBLE:这次对话是对最近Meta的Yann LeCun接受ENBLE采访时提到的回应。首先,关于那次采访,有什么重要的事情需要提到吗?

Gary Marcus:最近LeCun一直在批评我,包括在ENBLE采访中、在Noema的一篇文章中以及在Twitter和Facebook上,但我仍然不知道LeCun实际上读了我说的多少。我觉得这里的紧张局势部分原因是他有时在没有阅读的情况下批评我的工作,只是根据标题之类的东西。我写了2018年的一篇文章《深度学习:一种批判性评估》,他在Twitter上公开批评了它。他说它“大部分是错误的”。我试图追问他哪里错了,他从未回答。

人工智能

  • 7个高级ChatGPT提示写作技巧,你需要知道
  • 2023年最佳的10个ChatGPT插件(以及如何充分利用它们)
  • 我已经测试了很多AI工具,这是我目前最喜欢的5个
  • 人还是机器人?这个图灵测试游戏考验你的AI识别技巧

我认为他认为那篇文章说我们应该放弃深度学习。我已经多次纠正他这一点。他在ENBLE采访中再次犯了这个错误。如果你真正读了这篇文章,它所说的是我认为深度学习只是众多工具中的一种,我们还需要其他东西。

所以,无论如何,他以前攻击过这篇论文,而他是个大人物。那时(2018年),他还在Facebook AI担任要职。现在他是Facebook的首席AI科学家和副总裁,他获得过图灵奖。所以,他的话有份量。当他攻击某个人时,其他人也会跟进。

当然,我们不必阅读彼此的所有文章,但我们不应该说它们“大部分是错的”,除非我们已经读过。这真的不公平。对我来说,这感觉有点滥用权力。然后我对你们与他的采访感到非常惊讶,因为他似乎在争论我在那篇他嘲笑的文章中提出的所有观点:至少目前使用的深度学习技术不能完全达到目标。还有许多其他细微的重叠点,以至于他基本上是在说我说的那些所有被他认为是错误的事情都是真的。

这对我来说已经足够恼人了,没有学者愿意没有被引用。但他还冲我来了一下,说我从未在同行评审的AI期刊上发表过任何文章。这是不对的。他可能没有核实过那一点。恐怕你也没有核实。你很友善地纠正了他。

ENBLE:对于没有核实这一点,我向你道歉。

[Marcus指出在AI期刊上发表的几篇同行评审文章:《人工智能中基于根本不完整信息的容器的常识推理》;《Containers的推理:关于认知系统进展中的根本不完整信息的案例》;《自动推理中模拟的范围和限制》;《ACM通信中的常识推理和常识知识》;《重新思考消除性连接主义,认知心理学》]

GM:这种事情经常发生。我是说,某个权威人物说了什么,你就会相信。对吧。我是说,他是Yann LeCun。

ENBLE:应该进行事实核实。我同意你的观点。

GM:无论如何。他说过了。我纠正了他。他从未公开道歉。所以,总的来说,我在那里看到的是基本上在说我一直在说的事情,并且攻击我,这是重新定位努力的一部分。我在这篇Substack文章中详细阐述了这个观点:“Yann LeCun的‘新’观点有多新?”

我在那里提出的案例是,事实上,他正在试图重新书写历史。我举了很多例子;如今人们说,我带来了收据。好奇的人可以去阅读。我不想在这里重复所有的论点,但我从多个维度看到了这一点。现在,有些人看到了这一点,并说:“LeCun会因此受到惩罚吗?” 当然,答案是不会的。他很有权力。有权势的人很少受到惩罚,或者几乎不会受到惩罚。

还有:抵制留下深刻印象的冲动;我们谈论AI时谈论的是什么

但还有更深层次的观点。你知道的,除了我个人感到愤怒和震惊之外,我并不孤单。我在Substack文章中举了一个例子,[Jürgen] Schmidhuber [IDSIA Dalle Molle人工智能研究所兼职教授]也有同样的感受。在接下来的一周里,有消息称,Judea Pearl,就像Yann一样是图灵奖得主,也觉得他的工作没有被主流机器学习界提到。Pearl以一种相当尖锐的方式说道:“LeCun对Marcus很恶劣,但他甚至都懒得提到我。”一个图灵奖得主甚至不引用另一个图灵奖得主,这真是让人震惊。

LeCun在思考因果关系,我们都知道因果关系的领导者是Pearl。这并不意味着Pearl解决了所有问题,但他对于为什么理解因果关系对于机器学习的重要性呼声更高,他做出了更多的贡献,某种程度上为其提供了正式的机制。我不认为他解决了这个问题,但他打开了这个问题。[对于LeCun]来说,我要构建世界模型,那么,世界模型就是关于理解因果关系的,而忽视Pearl是令人震惊的。

这是“非此即彼”风格的一部分。现在,讽刺的是,我认为LeCun在你的访谈中说的一切——不是关于我,而是关于这个领域的现状——他可能是自己得出的。我不认为他是从我这里剽窃的。我在[Substack]文章中也是这么说的。但是,为什么要等四年才发现这些事情,当你的NYU邻居可以有话要说。

Marcus一直是深度学习的坚定批评者,尤其是在他2019年与他的NYU同事Ernest Davis合著的《重启AI》一书中。这对二人认为,机器学习程序缺乏常识是其可能造成潜在危害的最重要因素之一。

他还在几年前与Timnit Gebru(前谷歌研究员,现任分布式人工智能研究所的创始人兼执行主任)在Twitter上发生了一场激烈的争论——如果你愿意,你可以查阅这个——以至于他(LeCun)实际上离开了Twitter。他欺负了Timnit。他对Schmidhuber的贡献有所贬低。他对Pearl的贡献也有所贬低。所以,像很多想要捍卫目前机器学习方法荣誉的人一样,他把我妖魔化了。你在[ENBLE访谈]中看到了他对我进行的直接攻击。

在我的看法中,这都是更大的问题的一部分,你有一些拥有大量财富和认可的人,试图排挤其他人。他们并没有真正意识到这种讽刺,因为在2012年之前,他们自己也被排挤在外。所以他们有了非常好的想法,但在2010年时,他们的好想法看起来并不那么出色。关于这一点,我最喜欢的一句话仍然是Emily Bender说的。她说,问题在于他们吸走了空气,让其他人很难去追求其他方法,并且他们没有参与这些方法。

有整个神经符号AI领域,LeCun并没有参与其中,有时还抨击它不连贯;当我在2018年为它辩护时,他说它“大部分是错误的”。但他从来没有真正参与到这项工作中去。对于一个像他这样的人来说,这是不合适的。你知道的,他可以对此持有不同意见,并说:“我会用另一种更好的方式来做,或者这些前提是错误的。”但他没有参与其中。

有一个很棒的推文,由机器人学家Mikell Taylor发布,内容与另一个话题有关。她说,特斯拉的一些粉丝基本上在说,为什么你不来解决这个问题呢?她的观点是,特斯拉现在承诺的事情没有人能做到。而深度学习现在的目标也没有人能够实现。事实是,这些东西被过度宣传了。

到2022年,我们还没有技术准备好用于驱动一个家庭机器人,让它能够理解世界。我们在无人驾驶汽车方面仍然失败了。我们有这些聊天机器人,有时很棒,有时完全愚蠢。我的观点是,就像我们在攀登K2山一样,我们攀登了这座令人难以置信的山,但事实证明这是错误的山。我们中的一些人已经指出了这一点,LeCun现在也认识到这不是正确的山峰。

此外:OpenAI有一个愚蠢的文本机器人,而我仍然有一份写作工作

Taylor的观点是,即使你没有更好的解决方案,批评某件东西也是合理的。有时候更好的解决方案确实还没有出现。但你仍然需要了解现在出了什么问题。而LeCun想两全其美,因为他实际上也没有这些问题的解决方案。他现在四处演讲,说领域一团糟。在那篇采访被发布的同一天,他发表了一场演讲,其中他说,机器学习很糟糕。当然,如果我说这话,人们会像割我的轮胎,但他可以这么说,因为他是LeCun。

他说机器学习很糟糕,然后对如何解决它发表了一些模糊的言论。他今年夏天写的一篇有趣的宣言性论文(“通向自主机器智能的路径”)涉及多个模块,包括一种可配置的预测器。关键是,[LeCun的新方法]实际上也不是一个实现的理论。LeCun不能回家说,“所有这些Marcus担心的事情,以及我现在担心的事情,都可以通过这个解决。”他只能说,“我有一种直觉,我们可能会朝这个方向发展。”

我认为我们需要更丰富的世界模型。事实上,这些年来我一直在这么说。例如,我在人工智能期刊上发表的一篇同行评审的文章是关于如何理解容器内发生的事情的模型,这是一个非常有趣的问题,因为我们在世界上所做的很多事情实际上都与容器有关。

所以,现在我的桌子上,我有一个容器,里面放着笔和铅笔之类的东西,我还有一个装着一杯水的容器。我对它们了解一些东西,比如,如果我拿走了某样东西,它就不在容器里了。如果我把容器倾斜,里面的东西都会掉出来。我们可以对容器进行各种物理推理。我们知道,如果我们有一个有孔的咖啡杯,我倒入咖啡,那咖啡会溢出来。

我和LeCun的纽约大学同事Ernie Davis在《人工智能》期刊上写了一篇论文,给出了这方面的经典形式逻辑解释。在你采访LeCun时,他谈到了常识环境中的物理推理。所以这是一个可能的[替代]理论的完美例子,Davis和我提出了。说实话,我不认为我和Davis提出的理论是正确的。我认为它在某种程度上框定了问题。但这是一个难题,还有更多工作可以做。但关键是,LeCun实际上没有一个已实现的关于容器的物理推理理论,可以说是一个替代方案。所以他指着我说,你没有替代方案。但是他对我提出的事物也没有替代方案。

此外:AI的下一步:Gary Marcus谈论通往强大人工智能的旅程

当人们攻击他人的资历时,你不会得到良好的科学。弗朗西斯·克里克不是生物学家。这是否意味着他对DNA的模型是错的?不是的。他是一个物理学家,但你可以来自其他领域并有话要说。历史上有很多这样的例子。

如果你通过欺凌他人排斥其他的替代假设来吸走房间里的氧气,你就有可能得出错误的想法。这方面有一个很明显的历史先例,非常伟大而悲哀,一个明显的例子就是在20世纪初,该领域的大多数人认为孟德尔发现的基因是由蛋白质组成的。他们一直在寻找基因的分子基础,但他们都错了。他们还为此写了自豪的文章。有人因为烟草病毒而获得了诺贝尔奖,我想是在1946年,他们认为烟草病毒是一种蛋白质,但实际上并不是。这是少数几个被错误授予的诺贝尔奖之一。结果发现DNA实际上是一种酸,这种叫做DNA的奇怪物质当时人们对它知之甚少。所以,在历史上有这样的时期,人们对答案非常明确,但是却是错误的。

从长远来看,科学是自我纠正的。但我们之所以有一种礼仪和最佳实践,即不进行人身攻击,引用他人的工作并在此基础上进行建设,是为了避免出现这样的错误,以及提高效率。如果我们对其他人的工作持轻蔑态度,我认为LeCun就是这样一个人,如果我们对Judea Pearl的工作、我的工作、Schmidhuber的工作以及整个神经符号社区的工作持轻蔑态度,我们就有可能长时间地固守错误的模型。

关于您2018年的论文,这是一篇很棒的文章,对我来说,其中的关键引文是:“到目前为止,深度学习是肤浅的,它在迁移方面的能力有限,尽管深度学习能够做一些令人惊叹的事情。” 我们都对这些令人惊叹的事情着迷,比如它可以改变我们的照片和高分辨率的智能手机图片。坦率地说:这些东西在某种程度上是有效的。而现在,你和LeCun都在说这不是智能,甚至不是智能的开始,它实际上是原始的。你们两个都面临着一个越来越从这些机器所做的这些惊人的事情中获利的工业体制。

GM:我首先要说的是,我不想争论它是否是智能。这取决于你如何定义这些术语。所以,我会说,根据你的定义,称深度学习为一种智能形式是不无道理的。如果你愿意,你可以称计算器为智能,或者称国际象棋电脑为智能。我并不在乎。但是我关心的是我们可能称之为通用智能或适应性智能的形式,我关心的是适应性智能。我想知道我们如何制造出这样的机器:你可以告诉它我的问题,让它去解决,就像你可以告诉一个大学生实习生一些关于某个问题的事情,然后让他们去解决并做出一些可靠的工作。我们没有这样的机器。我们没有机器具有足够高水平的对世界的理解或对世界的理解能力,以能够处理新奇事物。你谈到的许多例子都是我们有大量数据而且这些数据不会发生太大变化的情况。所以,你可以得到数十亿次人们说“Alexa”这个词的试验,然后你当然可以使用这些算法来识别“Alexa”这个词。

此外:对于一个更危险的时代,对当前人工智能的美味讽刺

另一方面,埃里克·托普尔是我最喜欢的从事人工智能和医学研究的人之一,他在两天前发了一条推文,显示在医学领域中,让人工智能真正有用仍然存在严重问题。这是因为生物学在不断变化。

再举一个例子,很多这些大型语言模型认为特朗普仍然是总统,因为有很多数据说特朗普总统,它们没有进行基本的时间推理,即理解一旦有其他人宣誓就不再是总统了。它们就是不会这样做。

如果你只是累积统计证据而不了解事物的动态,你就会有问题。或者,Walid Saba(AI和ML科学家)举了一个很好的例子。他问GPT-3,你更愿意听谁的建议,一个年幼的孩子还是一个聪明的桌子。它只知道“聪明”这个词,所以它说,我会听聪明的桌子的建议。这里没有深度,它实际上并不理解这个世界。

这是一种市场营销的光辉和恐怖之处,短语“深度学习”暗示了概念深度,但它缺乏实际意义。实际上,它只是指网络中的一定数量的层,比如三层或更多,现在可能是150层,但“深度学习”中的“深度”只是指层数,并不意味着概念深度。它并不意味着这些系统中的任何一个知道人是什么,桌子是什么,或者其他任何东西。

ENBLE:然后,你们似乎面临的阻力比你和LeCun之间的力量还要大。你们两个都面临着一个被他称之为工程化的体制。世界将实现一些看起来有点可行的东西,但它实际上并不智能。

GM:有趣的是,在一个不同的世界中,LeCun和我将是盟友。我们在很多事情上都有很大的共识。最近我在一篇题为“范式转变”的文章中详细概述了我们的共识。这篇文章是我回应Slate Star Codex的Scott Alexander时写的。在我的Substack上我写了一篇文章,“AI真的需要范式转变吗?”其中有一节我详细列举了LeCun和我在许多方面的共识。

如果你看一下这个领域的大致背景,我们在大多数观点上其实是一致的。我将回顾其中的一些观点,因为我认为它们很重要。LeCun和我在一致性上的首要观点是,仅仅扩展规模是不够的。现在,我们并不是唯一这么认为的人,但这个领域有一个真正的分歧。我认为许多年轻一代对扩展展示非常印象深刻。[DeepMind研究员] Nando de Freitas在Twitter上写了一些东西,他说游戏已经结束,AGI只是一个扩展的问题。我在Substack上写了一篇回复,叫做“Alt Intelligence”,这是我一直保持的Substack上的第一篇文章。最近人们称之为扩展最大主义,就像扩展就是你所需要的一切。这是当前领域中最重要的问题之一。LeCun和我完全一致认为,扩展最大主义是不足以让我们达到更深层次的适应性智能的。

同样,他和我都认为,虽然DeepMind花了很多时间在强化学习上,但其他人也在研究,我们也认为那是不够的。他喜欢用“它只是蛋糕上的樱桃”这个比喻,我也同意他的观点。我认为在你真正理解世界之前,你无法进行良好的强化学习。

另外:AI辩论2:千名AI学者之夜

我们都同意,尽管大型语言模型非常酷,但也存在很大问题。在这个问题上,我认为我首先指出了这个问题,当我指出时,他对此非常恶劣。但我们在同一个立场上达成了一致。我们都认为,这些系统虽然很炫,但并不能使我们达到通用智能。这与扩展的观点有关。

这些都是最重要的问题之一。从某种意义上说,我们的共同观点是少数派观点,我相信我们在这些观点上都是正确的。时间会证明一切。这些都是经验性问题。我们还需要做更多的工作。我们不知道科学上的答案,但LeCun和我在这些观点上有着相当深刻的直觉。

我们还有一个地方非常一致,那就是我们都认为你需要有模型和常识,实际上有两个方面,你需要有关于世界如何运作的模型,与此相关的是,尽管它可能是模糊的,我们都认为你需要类似常识的东西,这是非常关键的。

我可以想象我们在世界科学节上共同参加一个小组讨论,我们会开始讨论我们所认同的七个观点,然后我会解释为什么我认为世界模型需要以这种或那种方式,如果我们能回到我们曾经的那个地方,这将是一个有趣的讨论。

ENBLE:那你们在哪方面不同?

GM:我会主张有很多符号知识是我们可能想要使用的。我会主张符号工具到目前为止仍然是超越分布的更好的泛化方式,这非常重要。我们现在都知道分布变化是一个关键问题。我在2018年提出了这个问题,我认为它仍然是一个关键问题,那就是如何在你所看到的数据以外进行泛化。我认为符号模型在那方面可能有一些优势。我愿意承认我们不知道如何学习这些模型。我认为LeCun在那些模型的学习方面有一些进展的希望。我不确定他是否有正确的架构,但至少在这方面他有正确的精神。

此外:AI历史辩论中的魔鬼在细节中

然后我们在另一个地方有实质性分歧,这是在2017年的辩论中关于天赋的问题。我认为我们需要更多的天赋。我认为最具讽刺意味的是,LeCun对AI的最大贡献是卷积的天赋先验,有些人称之为平移不变性。它表明,基本上,这是一种将对象的外观与其出现的不同位置相关联的方法。我认为我们需要更多类似这样的先验。更多像这样的天赋性质。但是LeCun并不真正想要这样。他真的不想要有先天的结构。他在这个领域被称为机器学习,并非偶然。机器学习的人们希望所有东西都能被学习到。并非所有人都这样想,但有很多人。

我的观点是,如果你看看生物学,我们只是天赋结构和学习校准机制的大杂烩。所以,例如,我们心脏的结构显然是先天的。有一些校准。当你锻炼时,你的心脏肌肉可以增长,等等。但有很多很多的先天结构。我发现在机器学习领域中对天赋性的偏见真的伤害了这个领域,并使其停滞不前。所以这是我们的分歧之处。

我做我认为人们应该做的事情。我了解我的对手的观点。我认为我可以描述这些观点,并谈论他们的一致和分歧,并描述它们是什么。而我认为LeCun一直试图做的就是简单地将我驳斥出局。我不认为这是科学的正确方式。

ENBLE:最后一个问题:你认为有什么重要的事情是我们正在努力解决的,比你和Yann LeCun都更重要?

GM:首先,我想说的是,我认为我们俩都没有答案。我希望他最终能和我进行辩论的原因是,我认为这个领域陷入了困境,唯一能够摆脱困境的方式就是如果一些学生或年轻人以与我们其他人稍有不同的方式看待问题。像LeCun和我这样有着明确观点并能表达观点的人可以帮助人们看到如何解决问题。所以,明显有充分的理由希望有一个基于学习的系统,而不是硬编码。而且明显有充分的理由希望利用符号操作的优势。而且没有已知的方法可以同时满足这两个要求,就像俗话说的那样,既要鱼又要熊掌。

所以,我喜欢把可能的模型空间看作是一个空间。神经网络探索的就是多维空间。AI的可能架构的范围很大。我们研究的大部分都在那个空间的一个小角落里。那个角落不太起作用。LeCun和我对此实际上是有共识的。问题是,我们如何走出那个角落,开始看其他地方?我们两个都对此有猜测,但我们当然不确定。我认为,在未来还有很多范式转变的空间。实际上,在我那篇名为“范式转变”的文章中,我引用了LeCun的话。这个领域中有一部分人认为我们不需要另一次范式转变,我们只需要更多的数据。但LeCun和我都认为我们需要范式转变,也就是说,我们需要去看我们现在没有看到的模型空间之外。帮助其他人做到这一点的最好方法是明确我们所困在的位置。