每个人都希望有负责任的人工智能,但很少有人采取行动

人们希望有负责任的人工智能,但少有行动

近九成的企业领导都认为,制定关于人工智能(AI)伦理和企业责任的明确指导方针非常重要,但仅有少数几个企业承认自己拥有这样的指导方针,最近的一项调查显示。

这些发现表明,在AI采用的治理方法上存在困惑,技术专业人员需要站出来,为其数据驱动的项目的安全和道德发展承担领导责任。

此外:负责任地使用AI的五种方法

这些结果来自于科技公司Conversica发布的一项基于500名企业领导意见的调查,该公司表示:“调查传递出一个明确的信息:大多数受访者认识到,在公司内部负责任使用AI的明确指导方针至关重要,尤其是那些已经接受了这项技术的公司。”

几乎三分之二的受访者表示AI指导方针是不可或缺的。然而,只有6%的受访者制定了清晰的AI道德指导方针,36%的受访者表示他们可能在未来12个月内制定指导方针。

即使在目前正在使用AI的公司中,五分之一的领导者承认对其组织的AI相关政策了解有限或根本不了解。超过三分之一(36%)的领导者声称对与政策相关的问题只有“有些了解”。

报告的作者指出,解决AI责任问题的指导方针和政策应包括治理、公正的训练数据、偏见检测、偏见缓解、透明度、准确性和人工监督的纳入。

此外:最佳AI聊天机器人:ChatGPT和其他值得关注的替代品

调查发现,65%的受访高管表示他们已经或计划在未来12个月内推出AI驱动的服务。AI的主要应用包括提供客户服务和营销等参与功能(39%)以及产生分析洞察(35%)。

调查发现,对AI输出的主要担忧是当前数据模型的准确性、虚假信息和缺乏透明度。超过四分之三(77%)的高管对AI生成虚假信息表示担忧。

企业领导者表示,AI提供商在帮助制定指导方针方面提供的信息不足,尤其是在数据安全和透明度以及制定强有力的伦理政策方面。

此外:如果我们不立即采取行动,今天的AI繁荣将放大社会问题

约有三分之二(36%)的受访者表示他们的企业有关于使用生成AI工具(如Chat GPT)的规定。但有20%的受访者表示他们的公司在可预见的未来将允许个人员工自由使用AI工具。

Conversica的调查显示,实现负责任的AI还存在领导力缺失。那么,技术领导者和业务专业人员如何能够确保负责任的AI实践得到落实呢?以下是谷歌AI团队分享的一些关键指导方针:

  • 采用以人为中心的设计方法:“实际用户体验系统的方式对评估其预测、建议和决策的真实影响至关重要。在设计过程中建立适当的披露功能:清晰度和控制对于良好的用户体验至关重要。在设计过程的早期模拟潜在的不良反馈,然后针对一小部分流量进行具体的实时测试和迭代,然后再进行全面部署。”
  • 与多样化的用户和使用案例场景进行互动:“在项目开发之前和期间收集反馈意见。这将使项目中融入丰富多样的用户观点,并增加从技术中受益的人数。”
  • 为公平和包容性设定具体目标来设计模型:“思考技术及其随时间的发展将如何影响不同的使用案例:谁的观点被代表?代表了哪些类型的数据?有什么被遗漏了?”
  • 检查系统中的不公平偏见:“例如,组织一批可信任的、多样化的测试人员,对系统进行对抗性测试,并将各种对抗性输入纳入单元测试中。这可以帮助识别可能遭受意外不良影响的人群。即使错误率较低,也可能发生偶尔的非常糟糕的错误。”
  • 在困难案例上对系统进行压力测试:“这将使您能够快速评估您的系统在每次更新时在可能具有特别伤害性或问题的示例上的表现如何。就像所有测试集一样,您应该随着系统的发展、添加或删除功能以及用户的反馈不断更新此集合。”
  • 测试,测试,再测试:“借鉴软件工程中最佳的测试实践和质量工程,确保AI系统按预期工作并值得信赖。进行严格的单元测试,以在隔离状态下测试系统的每个组件。进行集成测试,以了解各个ML组件与整个系统的其他部分的交互作用。”
  • 使用一个黄金标准数据集来测试系统,并确保它继续按预期运行:“根据不断变化的用户和使用案例定期更新此测试集。进行迭代用户测试,将各种用户需求纳入开发周期中。”
  • 应用质量工程原则中的“防错”:“在系统中构建质量检查,以防止意外失败的发生,或者在意外缺失重要功能时触发立即响应-例如,如果一个重要功能意外缺失,AI系统不会输出预测结果。”

企业可能希望迅速实施人工智能,但必须谨慎行事,确保工具和模型的准确性和公平性。尽管企业希望人工智能能够不断进步,但这项技术必须始终提供负责任的结果。