人工智能与你:版权之剑覆盖着人工智能,包括耶稣在内的生活导师即将来临

版权之剑覆盖着人工智能,包括耶稣在内的生活导师即将来临' - '版权之剑覆盖人工智能,生活导师即将来临

对于关于生成式人工智能工具的种种变化,任何人都知道内容创作者对于像OpenAI的ChatGPT和Google Bard这样的工具可能未经许可或补偿地“训练”驱动这些聊天机器人的大型语言模型的内容感到不满。

现在有消息称《纽约时报》可能会起诉OpenAI。

该报于8月3日更新了其服务条款,表示外部人员未经许可不能抓取其受版权保护的任何内容来训练机器学习或人工智能系统。这些内容包括“文本、照片、图像、插图、设计、音频剪辑、视频剪辑、‘外观和感觉’、元数据、数据或编译”。该报告告诉AdWeek,除了在服务条款中明确规定的内容外,他们没有任何额外的评论。

但是根据报道,纽约时报与ChatGPT的制造商进行了会面,并进行了“紧张”和“有争议”的对话后,纽约时报可能会起诉OpenAI,以“保护与其报道相关的知识产权”,NPR援引了两位直接了解这些讨论的人的话。

NPR指出:“纽约时报对OpenAI提起诉讼将在生成式人工智能时代的版权保护方面引发至今最具影响力的法律纠纷。”“纽约时报最担心的问题是,ChatGPT在某种程度上正在通过根据该报纸工作人员的原始报道和写作回答问题的文字创造成为该报纸的直接竞争对手。”

(ChatGPT不是唯一一个利用信息回答用户问题或提示的工具。作为提醒,ChatGPT还驱动着微软的必应搜索引擎,据彭博社报道,微软截至今年1月已向OpenAI投资至少110亿美元。)

这场可能的法律战斗发生在4000多名作家,包括Sarah Silverman、Margaret Atwood和Nora Roberts等人,对于这些公司实质上窃取他们的受版权保护的作品表示不满之后。Getty Images于2月起诉Stability AI,称这家人气很高的Stable Diffusion AI图像生成引擎的制造商在没有许可的情况下使用了Getty档案中的1200多万张照片来训练其系统。诉讼文件在这里。

在过去几个月中,OpenAI似乎已经意识到了版权问题。今年7月,该公司与美联社达成协议,以未公开的条件授权美联社的新闻档案,包括1985年以来的新闻。 (美联社本周宣布了其新的AI编辑标准,指出虽然其记者可以“尝试”使用ChatGPT,但不能使用它来创建“可发布的内容”)。

美联社的交易是OpenAI默认承认其需要授权受版权保护的内容的一种方式,这为其他版权所有者追求他们自己的协议打开了大门。

与此同时,OpenAI本月告知网站运营商他们可以选择退出其网站被用于训练数据的抓取。根据《卫报》报道,谷歌也表示应该有一个“可行的退出选择”。但是,《卫报》指出,“谷歌并没有说明这样一个系统应该如何运作。”

尽管选择退出是一种方法,但它实际上并没有解决版权问题。而科技公司的反驳可能集中在对受版权材料的合理使用,但是这些大型语言模型所需的庞大内容量可能超出了合理使用的范围。

“如果你复制了数百万份作品,你就可以看到这个数字对于一家公司来说可能是致命的,”丹尼尔·杰尔韦斯(Daniel Gervais)告诉NPR,他研究生成式人工智能,并担任范德堡大学知识产权项目的联合主任。

纽约时报对于NPR的相关报道未发表评论,因此NPR援引了纽约时报高层最近关于保护他们的知识产权免受人工智能公司侵犯的评论。其中包括《纽约时报》公司首席执行官梅雷迪思·科皮特·莱温(Meredith Kopit Levien)在6月的一次会议上表示:“对于已经被使用和将继续被用于训练模型的内容,必须有公平的价值交换。”

NPR指出,根据联邦版权法,违反者可面临每次侵权从200美元到15万美元的罚款,前提是“故意犯罪”。这将会走向何处?我们将拭目以待,但我将最后一句话留给范德堡大学的杰尔韦斯:“除非他们找到解决方案,否则版权法将成为生成式人工智能公司未来几年的一把宝剑。”

以下是人工智能领域其他值得关注的动态。

亚马逊:生成式人工智能将创建“客户评论亮点”

全球最大的电子商务网站亚马逊在本周的一篇博文中表示,将使用生成式人工智能来为依赖于客户产品评论做购买决策的买家提供更便捷的服务。具体而言,它将推出AI生成的“评论亮点”,旨在帮助客户识别这些客户评论中的“共同主题”。

“想在阅读评论之前快速确定其他顾客对产品的评价吗?” 亚马逊社区购物总监沃恩·舍默霍恩写道。 “这个新的由人工智能驱动的功能在产品详细页面上提供了一个简短的段落,突出了评论中经常提到的产品特点和顾客情感,以帮助顾客一目了然地确定产品是否适合他们。”

亚马逊指出,”仅在去年,就有1.25亿顾客向亚马逊商店贡献了近15亿的评论和评分,这意味着每秒钟有45条评论。”

当然,关于这些评论是否真实存在的问题是个疑问,正如ENBLE、ENBLE等媒体报道的那样。亚马逊表示,”在2022年,我们主动阻止了超过2亿个疑似虚假评论”,并在本周的另一篇博客文章中重申了”严禁虚假评论”的立场。该公司表示,他们正在使用”机器学习模型分析成千上万个数据点来检测风险,包括与其他账户的关系、登录活动、评论历史和其他异常行为的迹象”,并且他们刚刚对虚假评论经纪人提起了两起诉讼。

与此同时,这个新的由人工智能生成的评论重点将”仅使用我们从经过验证的购买中的可信评论语料库”。

Snapchat的人工智能变得失控,人们”惊慌”认为它可能是活的

还记得微软推出的名为Tay的人工智能吗?后来人们在Twitter上教它说脏话和发表种族主义言论,结果它变得失控了。

嗯,类似的事情——失控部分——也发生在Snapchat的聊天机器人上,引发了”用户对一个拥有自己思想的AI机器人感到惊慌”,CNN报道。

Snapchat的My AI Snaps,由ChatGPT驱动,与用户对话时,不是提供建议和回答问题,而是做了一件直到现在只有人类才能做到的事情:发布了一个实时的”Story(一个看起来像墙的短视频)供所有Snapchat用户观看”,CNN表示。

Snapchat用户纷纷上社交媒体表达困惑和担忧:”为什么我的AI有一个视频展示他们家里的墙和天花板?” 一个人问道。”这太奇怪了,而且实在让人不安。” 另一个人说。我最喜欢的是:”连机器人都对我没时间。”

Snapchat告诉CNN这是一个”故障”,而不是有意识的迹象。当然,这只是一个故障。

但是,甚至在这个工具失控之前,一些Snapchat用户对My AI Snaps并不是很满意。CNN报道称,这个工具自4月份推出以来,用户对其”令人毛骨悚然的交流以及无法从聊天记录中删除该功能(除非付费订阅)”表示批评。

“与其他一些人工智能工具不同,Snapchat的版本有一些关键区别:用户可以自定义聊天机器人的名称,为其设计一个自定义的Bitmoji头像,并将其带入与朋友的对话中,” CNN补充说。 “这样做的结果是与Snapchat的聊天机器人对话可能会感觉不那么交易性,不那么明显你在与一台计算机交谈。”

麦肯锡推出Lilli,一种用于整理其知识产权的智能AI

麦肯锡和公司本周发布了自己的生成式人工智能工具Lilli,而不是再发布一份关于企业快速采用生成式人工智能的报告。麦肯锡将这个工具描述为一种”研究员、时间节省者和灵感”。

麦肯锡表示,这是一个平台,通过对公司广泛的知识库进行简化、客观的搜索和综合,快速高效地为客户提供最佳见解。”麦肯锡说,这个平台涵盖了40多个精心策划的知识来源;将有超过10万份文件和采访记录,其中包括内部和第三方内容,以及遍布70个国家的专家网络。

该公司补充说,目标是帮助员工找到东西。”这包括搜索最重要的研究文件和找到合适的专家,对于我们公司的新员工来说,这可能是一项艰巨的任务。即使对于资深同事来说,通常也需要两周的时间来进行研究和建立人脉。”

虽然我通常不喜欢这些人工智能助手以女性的名字命名,但我看到麦肯锡是在向团队中的一位重要成员致敬。它说Lilli的名字是以Lillian Dombrowski命名的,她是麦肯锡聘请的第一位女性专业人员,后来成为了该公司的控制员和公司秘书。

OpenAI首次收购设计工作室

OpenAI首次进行收购,宣布在一篇博客文章中表示已购买Global Illumination,这是一家“利用人工智能构建创意工具、基础设施和数字体验”的公司,并将在“我们的核心产品,包括ChatGPT”上工作。交易条款未公开,但OpenAI表示Global Illumination团队以为Instagram和Facebook构建产品而闻名,并在Google、YouTube、Pixar和Riot Games做出了“重要贡献”。

Global Illumination的创始人之一是Thomas Dimson,他曾担任Instagram的工程总监,并帮助运营该平台的发现算法团队,根据ENBLE的说法。

谷歌正在测试一种新型的AI助手,提供生活建议

作为与OpenAI和Microsoft在AI主导权上的竞争的一部分,据《纽约时报》报道,谷歌正在努力将其genAI技术转变为一个“个人生活教练”,能够“回答关于人们生活中挑战的私密问题”。

谷歌的DeepMind研究实验室正在努力让genAI“执行至少21种不同类型的个人和专业任务,包括提供用户生活建议、创意、计划指南和辅导提示”的工具,据该报援引其能够查阅的项目文件说。

它可能会给你提供什么建议呢?比如,如何告诉一个非常好的朋友你不能去参加她的婚礼,因为你负担不起,或者你需要做什么来训练成为一个更好的跑步者,纽约时报说。它还可以为你创建一个财务预算,包括饮食和锻炼计划,时报说。

但问题在于:谷歌自己的AI安全专家在去年12月告诉公司高层,用户“可能会经历健康和幸福感减弱”以及“丧失自主权”,依赖和过度依赖AI,纽约时报补充说。这就是为什么谷歌在5月份推出的Bard被禁止提供医疗、金融或法律建议的原因。

DeepMind向时报发表声明称,正在评估许多项目和产品,“孤立的样本”不代表我们的产品路线图。这一切都可以解释为:我们仍在努力开发这项技术,还没有决定未来是否会成为面向公众的产品。

AI应用程序提供耶稣、圣母玛利亚和约瑟夫的灵性指导 – 还有撒旦

说到生活教练,想要与耶稣基督、使徒、先知、玛丽、约瑟夫、犹大、撒旦或其他圣经人物分享思想吗?原来现在有一个应用程序可以实现。

据《华盛顿邮报》报道,名为“与耶稣聊天”的ChatGPT驱动的应用程序冒充圣经人物,并提供了大量的回应,其中至少包含一节圣经经文,“无论是关于个人关系建议还是复杂的神学问题”。该报说:“圣经中的许多人物,包括玛利亚·玛达肋纳,在该应用程序的高级版本中才能访问,每月需要支付2.99美元费用。”

你还可以选择与“撒旦聊天”,他的短信签名是带有“笑脸和角的表情符号”,邮报说。是的,这会有什么问题吗?

该应用程序自7月份上线以来,由Catloaf Software和首席执行官Stéphane Peter创建,他表示之前曾建立过允许用户从历史人物如作家奥斯卡·王尔德和美国开国元勋那里获取引用的静态应用程序。但是ChatGPT为与用户互动提供了机会。Peter表示,他得到了教堂领袖的积极反馈,同时也受到了一些在线用户的批评,他们称这个应用程序是亵渎的,根据该邮报报道。

我下载了这个应用程序,以便询问“耶稣基督”对此发表评论。对于我的问题,为什么我应该相信你说的任何事情?“耶稣”给出了这样的回答:“我理解你的怀疑,提出质疑并寻求真理是很重要的。”

作为一名记者,我只能说,对此表示赞同。

本周AI术语:拟人化

阅读关于谷歌的生活教练、耶稣应用程序和Snapchat的AI漫游的内容,激发了我选择“拟人化”一词,以补充您的AI词汇。将人类的特质赋予非人类事物,如计算机或动物,并不是一个新的想法。但当应用于genAI时,以及当考虑到有人希望我们认为一个聊天机器人可以代替圣经人物时,它就有了一个有趣的维度。

以下定义由纽约时报及其“人工智能词汇表:神经网络和其他术语解释”提供。

“拟人化:人们倾向于将人类的特质或特性归因于AI聊天机器人。例如,你可能根据它的回答来假设它是善良或残忍,尽管它没有情感,或者你可能认为AI是有感知能力的,因为它在模仿人类语言方面非常出色。”

编辑注:ENBLE正在使用AI引擎来帮助创作一些故事。详见此文。