2023年人工智能改变互联网的5种方式

2023年人工智能将以5种方式改变互联网

很难相信,但ChatGPT还只有一岁。

当OpenAI在2022年11月首次发布ChatGPT时,它成为了有史以来增长最快的应用,引发了谷歌内部恐慌,并引发了大型科技公司之间的生成式AI竞赛的导火索。

从那时起,生成式AI的崛起被称为下一次工业革命,引发了关于人类生存的哲学和伦理问题,使政府注意到其具有破坏性潜力。所以,是的,这对于AI来说是一个相当重要的一年。

这一点在互联网上表现得尤为明显。显然,AI依赖于互联网,所以不是这个意思。而是我们通过网络镜头看到的生成式AI的崛起对我们的影响:恐慌,炒作周期,病毒式的深度伪造,关于AI存在威胁的思考文章,伦理辩论,丑闻,以及最重要的是,(在新窗口中打开)AI在AI生成的数据上进行训练时,(在新窗口中打开)它就崩溃了。

无论是否明确提到,AI今年在互联网上留下了它的痕迹。

2023年生成式AI是一场疯狂的旅程,它使我们看起来比一年要老得多。我们相信从现在开始它将完全冷静下来,但首先,让我们回顾一下。

1. 给“幻觉”赋予了与药物无关的新含义

这一年,每个人都学会了计算机也能产生幻觉,只是不是以有趣或超越世俗的方式。幻觉是指生成式AI自信地虚构其回答,给人以其信以为真的错觉。

ChatGPT on mobile

LLMs通过基于其训练所依据的大量数据来概率性地预测下一个单词。因此,AI的幻觉通常在语言上是有道理的,有时会包含现实元素,这使得很难区分事实与纯粹胡言乱语之间的区别。要么就听起来像是你的朋友在Burning Man过度放松。

自从ChatGPT发布以来,紧随其后的是Bing Chat和Bard,互联网上充斥着AI聊天机器人所说的疯狂话语——不论是无缘无故还是通过越狱讲述的。它们从无害且愚蠢(虽然有些可怕)到诽谤和有害各不相同。甚至谷歌也因其自己的聊天机器人Bard而在演示视频中出现了不准确的信息。不管怎样,它们都对使互联网开始怀疑现实产生了累积效应。

2. 将深度伪造推向主流

深度伪造,即通过AI修改的媒体以使其看起来真实,已经成为了一个长久的问题。但是今年,生成式AI工具的广泛使用使得创造真实的图像、视频和音频变得比以往任何时候都更容易。

OpenAI的DALL-E 3,Google的Bard和SGE图像生成器,微软的Copilot(原名Bing Chat Image Creator)以及Meta的Imagine都是使用生成式AI根据文本提示创建图像的模型的例子。甚至媒体平台Shutterstock、Adobe和Getty Images也开始使用自己的AI图像生成工具。

用篮球运动员形象描绘DALL-E 2与DALL-E 3

许多这些服务都采取了防止人工智能生成图像带来的责任和现实伤害的防护措施和限制措施。对图像进行水印处理以标识为人工智能创作、拒绝生成逼真的人脸或公众人物的形象,禁止危险或不适宜的内容等,都是它们阻止不良使用的方法。

但这并没有阻止人们找到方法。今年,在音乐流媒体服务上流传了一首“听起来像Drake和TheWeeknd”的歌曲,后来被下架。借助人工智能技术,Tom Hanks仿佛在Instagram上宣传牙科计划,Scarlett Johansson的声音和形象被用于宣传90年代的年鉴人工智能应用程序。

Deepfakes已经成为公众人物及其生计的威胁,国会出台了法案以保护艺术家免受未经其同意的人工智能复制品的侵害。拜登总统的人工智能行政令也针对Deepfakes的威胁,提出了所有人工智能生成的内容必须带有水印的要求。

3. 对训练数据提出警示

LLMs为什么这么强大?它们是在整个互联网上进行训练的。一切内容,包括Reddit帖子、社交媒体帖子、维基百科页面、数十万本盗版书籍、新闻网站、学术论文、YouTube字幕、美食博客、迷因等,都满足着这些人工智能模型的无尽需求。

以手机应用程序形式呈现的ChatGPT

关于从互联网上收集数据来训练人工智能模型是否允许存在争议。OpenAI和Google都被Clarkson律师事务所对涉嫌未经同意“窃取”个人信息和侵犯版权作品提起了集体诉讼。Meta和微软也因训练其模型使用了包括盗版书籍在内的Books3数据库而面临诉讼。(在DMCA投诉后,Books3数据库于八月被下架。)

在更为明目张胆的版权侵权行为中,作家Jane Friedman在亚马逊发现了一批以她的名义出售的人工智能生成的书籍。

有人认为利用互联网上的公开数据属于合理使用。还有人表示隐私和版权法律并未考虑到复杂的机器学习技术,应进行更新。大家都同意这是一个非常复杂的问题,尚未得到解决。

4. 让我们接触到人工智能生成的内容

生成式人工智能的一个惊人特点是能够写出自然流畅的语言。目前,大多数人工智能生成的内容读起来像是一位高中学生没有完成所有阅读的作业,容易出现不准确和稍微呆板的问题。但随着时间的推移,LLMs变得越来越好,让自动化的文章、新闻稿、职位列表、创作作品等变得对许多人不可抗拒。

使用文本提示来使用生成式人工智能的描绘

但早期尝试将人工智能生成的内容引入消费者市场却引起了广泛反对。ENBLE通过秘密发布人工智能生成的文章(其中许多是不准确的)同时引起了员工和读者的愤怒。Gizmodo发布了一篇关于《星球大战》的不准确人工智能生成故事,Sports Illustrated则虚构了一个似乎不存在的作者。

在互联网的其他地方,Meta完全投入生成式AI,向我们介绍了基于名人的”Personas”,但实际上并不是那些高调的人物,并且正在构建用于创建AI生成广告的广告主工具。

甚至音乐产业也加入了这个领域。据报道,代表Drake的唱片公司UMG正在探索一种销售音乐人声音以生成AI音乐并与艺术家分享许可费的方式。与Drake不同,他今年被AI深度伪造,并公开反对使用AI重新再现他们的声音,一些艺术家如Grimes则将其视为与粉丝合作的新方式,并与她的粉丝分享AI创作的版权收入。

如果AI生成内容将会存在,那么真正的问题是谁将从AI生成内容中获利,以及以谁的代价?

5. 承诺改变我们与工作的关系

这一年,提高工作效率的承诺成为推出AI工具的科技公司的主要卖点。Microsoft、Google、Zoom、Slack、Grammarly等公司都吹捧生成式AI将任务时间压缩到极小的比例。

但由于这些工具仍处于初级阶段,许多工具仅供付费客户试用,广泛的影响尚不明确。

我们知道的是,生成式AI工具在工作中并不可靠,至少没有人类的监督,这使整个提高工作效率的承诺带来很多问题。你一定要仔细检查它们的回答,并且你必须小心与像ChatGPT这样的语言模型共享什么信息。三星就曾遭遇到这个问题,当其员工无意中与ChatGPT共享专有信息时,他们并不知道他们的输入可能被用来训练模型。

最终,OpenAI发布了一个功能,允许用户选择退出与ChatGPT共享数据,并推出了企业友好的版本,以确保商业往来安全可靠,当然,除非发生数据泄漏。