“具备检索能力的开源AI超越了ChatGPT:Nvidia论文声称”

Nvidia paper claims open-source AI with search capability surpasses ChatGPT

最近的一项研究发现,使用检索增强的开源AI系统可以胜过OpenAI的GPT-3.5等专有聊天机器人模型。

这篇于10月4日由Nvidia研究人员发表的论文比较了处理大型语言模型(LLMs)中长上下文的不同技术,而这些模型是当今对话式AI的关键算法。一种方法是扩展上下文窗口,允许LLM直接“阅读”更多的文本标记作为输入,并在生成输出时记住它。另一种方法是使用检索,为LLM提供来自大型数据库的最相关上下文。

他们最佳的方法结合了这两种技术——一个70亿参数的开源模型LLaMA,具有扩展的32,000个标记上下文窗口,进一步通过从语料库中检索相关段落进行增强。检索器根据需要提供上下文,而不是LLM必须存储所有内容,这使得它更加高效。

在一组7个长篇问答和摘要评估中,这种混合检索增强的LLaMA取得了平均得分43.6,超过了允许16,000个上下文标记的GPT-3.5-turbo(平均得分42.8)。在4个任务的子集上,它与OpenAI的巨大专有175B参数的Davinci模型相匹配。

作者们认为,即使非常大的LLM已经具有扩展的上下文窗口,检索仍然能够提供显著的好处。他们发现,一个具有4,000个标记的LLaMA与16,000个标记的非检索LLaMA表现相似,但由于输入更少,速度更快。

研究人员认为,通过将现有的开源模型(如LLaMA)与检索技术相结合,可以实现与ChatGPT等封闭商业系统相媲美的性能。这些研究结果表明,将检索与长上下文结合起来是构建更强大的开源对话式AI的有希望的方向。

该论文提供了证据,表明通过正确的算法,开源AI可以与专有的聊天机器人相匹敌甚至超越。这些结果可能会影响下一代AI系统如何整合能够处理长文本输入并附带额外相关信息的模型,并将检索作为上下文长度扩展的关键要素。

特色图片来源:Markus Winkler; Pexels;谢谢!