欧盟要求科技巨头就生成式人工智能提供更多信息

欧洲委员会向谷歌、Meta、微软、Snap、TikTok和X发出一系列官方信息请求 (RFI),要求它们就管理生成式人工智能使用风险的方法提供信息

“`html

欧盟在选举前加强监管大型平台对生成AI风险的要求 | ENBLE

欧洲委员会在涉及生成AI潜在危险时毫不掉以轻心。在一项引发科技行业震动的举措中,委员会正式要求几家主要参与者(包括谷歌、Meta、微软、Snap、TikTok 和 X 等)提供信息,了解他们如何处理与这一尖端技术相关的风险。

这有何重要意义?

欧洲委员会的要求属于数字服务法案(DSA)范围,该法案概述了规范欧盟电子商务和在线治理的规则和条例。这些科技巨头,也被称为极大型在线平台(VLOPs),已被委员会指定为这样的平台,这意味着除遵守规则书外,他们还有额外的责任。

委员会特别关注这些平台如何减轻与生成AI相关的风险。这包括担忧事项,如虚假信息的创作,深度伪造视频的传播以及可能操纵服务导致误导选民的情况。欧盟监管机构正在全力以赴,还要求了解生成AI对选举过程、非法内容的传播、基本权利的保护、基于性别的暴力、未成年人的保护以及心理健康的影响等方面的信息。

对政治深度伪造进行AI压力测试

欧洲委员会不止于请求信息。他们计划进行一系列压力测试,以评估这些平台应对生成AI风险的准备情况,比如大量政治深度伪造视频可能出现的情况。随着6月欧洲议会选举的临近,欧盟决心确保这些平台充分准备好检测和打击可能危及选举诚信的事件。

一位匿名的高级委员会官员表示:“我们希望督促各平台告诉我们他们为做好准备所做的每一项工作…为我们可能检测到并必须在选举前应对的所有事件。”

建立执法生态系统

选举安全是委员会的首要任务之一,他们正在制定面向VLOPs的正式指南。即将出台的选举安全指南旨在比最近关于选举期间打击虚假AI使用的科技行业协议“更上一层楼”。欧盟计划通过三重保障来加强:DSA明确的尽职调查规则、反虚假信息实践准则和即将实施的AI法案下的透明度标签/AI模型标记规则。

目标是建立一个“具备执法结构的生态系统”,以确保选举安全时可利用。

生成AI风险的更广泛范围

尽管欧盟关注的焦点在于选举安全,但他们清楚生成AI可能带来选民操纵以外的风险。深度伪造色情内容以及其他恶意合成内容生成所带来的危害,无论产生的媒体类型如何,也在委员会的关注之列。除选举风险外,DSA对VLOPs的执法还涵盖了非法内容(包括仇恨言论)和儿童保护等议题。

委员会已设定4月24日截止日期,要求平台就其他生成AI风险提供信息回复。

超越VLOPs

欧盟不仅关注主要平台,还关注那些可能传播误导或恶意深度伪造视频的较小参与者。尽管这些较小的平台和AI工具制造商不被DSA明确监管,但委员会计划通过更大的平台充当增强器或分发渠道施加间接压力。他们还将依赖自律机制,如反虚假信息实践准则和AI协议。

问与答:您可能想要了解的

问:什么是生成AI?

答:生成AI是指能够自主创建新内容或信息的人工智能技术。这可以包括生成文本、图像、视频或其他形式的媒体内容。

问:什么是深度伪造?

答:深度伪造是使用AI算法创造的逼真操纵视频或图像。它们可能使看起来某人说过或做过某事的视频或图像实际上并未发生,导致潜在的错误信息和操纵。

“““html

Q: 深度伪造如何影响选举?

A: 深度伪造可以用来传播关于政治候选人的虚假信息,或者操纵公众对政治事件或声明的看法。这可能会通过误导选民和制造混乱来破坏选举的诚信。

Q: 生成AI除了选举安全以外还存在哪些潜在风险?

A: 生成AI可能带来风险,例如制造恶意合成内容,包括深度伪造色情、仇恨言论或其他有害媒体。还可能涉及儿童保护和传播非法内容。

生成AI监管的未来

欧洲委员会的行动凸显了对生成AI技术风险的日益认识。随着AI的能力不断发展,确立明确的指导方针和可执行的法规是至关重要的,以确保这些技术的负责和道德使用。欧盟专注于建立执法结构生态系统,展示了他们在超前于规定并保障选举和在线内容方面的承诺。

随着即将到来的压力测试和即将出台的选举安全指南,欧盟正向科技巨头发出明确信息:增强责任和采取积极措施的时刻已经到来。让我们希望他们的努力会带来一个更安全、更透明的数字景观。

参考资料

“`