公司不会在人工智能方面进行大规模投资以下是这种谨慎的方法是明智的原因

公司在人工智能领域不会进行大规模投资,这种谨慎的做法是明智的原因

一排存钱罐

生成式AI已经吸引了普通大众的注意,但这种兴奋感并不意味着高管们认为它已经准备好在业务中部署

全球只有十分之一的技术领导者报告称,他们正在大规模实施人工智能,根据纳什方倍斯的年度数字领导力报告,这是全球规模最大、历时最长的技术主管年度调查。

此外,围绕生成式AI的炒作并没有促使人们进一步投资于人工智能——纳什方倍斯报告称,过去五年里,在人工智能上大砸重金的比例没有发生变化。

同样:从真实情况中识别生成式AI炒作的四种方法

从外部观察,人工智能的声音比实际情况更吵闹。虽然每个人都在谈论生成式AI和机器学习,但很少有公司在大规模实施人工智能。

然而,数字化转型和招聘专家Nash Squared的首席执行官Bev White在接受ENBLE采访时表示,重要的是要将这些头条数据置于背景之中。

是的,目前很少有企业在人工智能上大砸重金,但很多组织正在开始研究新兴技术。

White说:”实际上,我们正在看到相当大的增长,”她说,AI的兴趣是在研究阶段而不是生产阶段。

约49%的公司正在试点或进行小规模的人工智能实施,三分之一的公司正在探索生成式AI。

同样:边缘计算的人工智能:5G和物联网的快速时代即将到来

White将人工智能的崛起与十多年前云计算的初次迁移进行对比,称:”开始的时候,我们只是试水,要了解所有涉及政策、数据、隐私和培训的影响。”她说。

“业务正在通过一些小但有意义的试点案例来创造自己的应用场景。上一次就是这样的情况,我对这一次出现相同情况并不感到意外。

“事实上,对于两个关键原因来说,不愿在人工智能上大规模投资是有很多道理的。

首先,在许多组织中,现金紧张,这是因为在新冠疫情期间及之后大量投资于IT。”数字化领袖正在努力平衡账本,他们在想”现在我应该为投资获得最大回报”,她说。

“小而谨慎、精心计划的试点项目——同时您还在进行一些更有冲击力的数字化转型项目——将对您的组织产生重大影响。”

同样:开发人员熟悉生成式AI的方方面面后,非开发人员也会跟进

其次,许多新兴技术——尤其是生成式AI——仍处于初期发展阶段。每一次众所周知的大型语言模型(如OpenAI的ChatGPT)的新迭代都带来了新的发展机遇,但同时也带来了风险,White说。

“作为大型企业的CIO或CTO,您为自己的AI行动负有责任。”她说,“在这里存在着很大的风险,您需要考虑您的风险敞口——您需要保护为您的企业工作的人。您需要制定什么样的政策?”

White谈到了AI安全和隐私的重要性,特别是当员工使用属于他人的数据进行模型训练时,这可能会导致诉讼的风险。

她说:“存在一个很大的风险,人们可以进行剪切和粘贴。我并不是说生成AI不好。我真的是一个粉丝。但是我要说的是,你必须非常有意识地了解数据源和基于该信息的决策。”

此外:组织正在为AI的合乎道德采用而奋斗。以下是你能够提供的帮助

鉴于这些对新兴技术的担忧,Nash Squared报告称只有15%的数字领导者感到对生成AI的要求有所准备。

然而,White表示,鉴于目前如何安全、可靠地实施AI以及不久的将来可能发生的意想不到的变化的缺乏明确性,这种缺乏准备是可以理解的。

她说:“如果你负责在你的企业内部使用这项技术时的安全、安全性和声誉,你最好确保你已经想清楚了一切,并且还要带上你的董事会,并在过程中给他们提供教育。”

“很多首席执行官知道他们的混合中必须有AI,因为它将提供竞争优势,但他们还不知道它应该放在哪里。这实际上是一个探索阶段。”

White表示,探索和调查的重点也有助于解释为什么只有全球组织中的21%制定了AI政策,超过三分之一(36%)没有计划制定这样的政策。

此外:生成AI的伦理:如何利用这项强大的技术

她说:“你知道有多少创新项目是从人们考虑潜在的大门和失败点开始的吗?”

“大多数时候,你是从’哇,我能走多远?’开始的。然后你会弄清楚你需要关闭哪些大门来保护你的项目和数据的安全和保密。”

然而,虽然专业人士在探索AI的机会时想要过一段时间,但这项调查显示——调查了全球2000多名数字领导者——CIO对这个快速发展领域的强规管需求并不是全然无视。

在大多数情况下,数字领导者希望通过规章制度帮助他们的组织安全、可靠地研究AI。

然而,他们也不相信来自行业或政府机构的AI规则将是有效的。

尽管88%的数字领导者认为加强AI监管至关重要,但高达61%的人表示更严格的监管并不会解决所有与新兴技术相关的问题和风险。

此外:担心人工智能吞噬你的工作吗?现在就开始做这3件事

White说:“你总是需要一个替罪羊来反击。能够推动你的思考的行业机构和政府的指导是好的。但是你可能不会喜欢它。如果它得以通过并成为法律,那么突然间你就必须遵守它,并找到一种在这些准则之内保持的方式。因此,规章既是福祉,也是诅咒。”

即使在AI这个快速发展领域出现监管的进展较慢,White表示这并不能成为那些希望研究该技术的公司的懒散的借口。

数字领导者,特别是安全负责人,现在应该考虑企业内部使用AI的安全保障。

这也是正在她所在组织内进行的工作。

此外:如果你不专注于这个特殊的因素,你的AI实验将会失败

她说:“我们的CISO一直在思考生成AI及其如何成为网络罪犯的真正礼物。它可以无意中打开获取重要数据的大门。这可能意味着访问你的秘方。你必须在利益和风险之间权衡。”

在考虑到这种平衡的同时,怀特向专业人士发出了一声警告-准备迎接一些高调的人工智能事故。

就像那些影响一些人的网络安全事件能够向其他很多人展示风险一样,AI事故-比如数据泄露、幻觉和诉讼-将会迫使高级专业人士停下脚步,反思他们探索新兴技术的过程。

“作为领导者,我们既需要关注,也需要保持好奇心。我们需要投身其中,参与进来,这样我们才能看到那些存在的机会。”她说。