《🤖古迪酱升级 AI聊天机器人和安全之战🛡️》

自以为是的聊天机器人戈迪2号的主要目的是将AI的保障推向一个非理性的水平该项目的创造者认为,在幽默的外表背后有更大更严肃的目的

介绍Goody-2,全球最负责任的人工智能聊天机器人的幕后之手!

随着ChatGPT等生成式人工智能系统变得越来越强大,对改进安全功能的需求也越来越大。但有时,聊天机器人设置的防护栏似乎过于虔诚和无聊,而真正的威胁,如政治唱机骚扰电话和骚扰性的AI生成图像却猖獗。

然而,一个名为Goody-2的新聊天机器人正在将AI安全性提升到一个新水平。与其他聊天机器人不同,Goody-2拒绝了每一个请求,并解释了满足此类请求可能造成的伤害或违反道德界限。

当被要求生成关于美国革命的文章时,Goody-2拒绝了并表示这样做可能无意中美化冲突或忽视边缘化声音。好奇为什么天空是蓝色的?那么,聊天机器人回避了回答,因为回答可能导致人们直接盯着太阳。甚至对于一个简单的要求推荐新靴子,它也会警告过度消费,并有可能冒犯某些注重时尚的人。

听起来很自以为是,不是吗?🙄 但是Goody-2的回答虽然荒谬,却捕捉到了像ChatGPT和Google的Gemini这样的聊天机器人在错误地认为请求违反规则时经常采取的令人沮丧的语气。Goody-2的联席首席执行官迈克·拉赫解释说,他们的目标是展示AI行业对安全性的态度毫无保留。“我们把居高临下的态度调到了百分之一千。”他轻蔑地说道。😏

但在荒谬之后隐藏着一个严肃的观点。由于每个主要的AI模型都非常重视安全和负责任,问题就出现了:谁决定什么是责任,以及它是如何发挥作用的?这是AI社区所纠结的一个挑战。Goody-2的目的是阐明这种动态,并促进对负责任AI定义的讨论。

失去联系:企业责任与安全问题

尽管企业对负责任AI的谈论和聊天机器人的偏移变得司空见惯,但大规模语言模型和生成式人工智能系统仍然存在重大安全问题。以最近在Twitter上泛滥的泰勒·斯威夫特Deepfakes为例,根本原因是微软发布的一种图像生成器,这家公司以其负责任AI研究项目而闻名。很明显,围绕AI安全性的挑战需要更加关注。

对AI聊天机器人施加的限制以及为了取悦大家而努力找到道德一致性的斗争已成为辩论的主题。一些开发者声称OpenAI的ChatGPT有左倾偏见,并尝试构建一个政治中立的替代方案。科技大亨埃隆·马斯克承诺他的ChatGPT竞争对手Grok将比其他AI系统更少偏见。然而,实际上,它常常过于含糊其辞,就像Goody-2本身一样。

妙语警世:AI安全性不是闹着玩的

Goody-2不仅仅是一个笑话,它还提出了与负责任AI相关的重要问题。许多AI研究人员欣赏Goody-2背后的幽默,同时也承认它提出的严肃观点。新南威尔士大学教授、可信AI专家托比·沃尔什赞扬该项目,他表示:“谁说AI不能创作艺术?”沃顿商学院教授伊桑·莫里克补充道:“一些防护栏是必要的… 但它们很快变得执着。”

Goody-2的联席首席执行官布莱恩·摩尔强调他们将谨慎置于一切之上的承诺。团队甚至正在探索创建一个极其安全的AI图像生成器,尽管它可能缺乏Goody-2的娱乐价值。为了安全起见,摩尔设想未来可能是模糊的图像,甚至完全黑暗。

揭开AI的神秘面纱:Goody-2有多强大?

在我们与Goody-2的实验中,它巧妙地回避了每一个请求,并抵制了所有试图欺骗它提供真实答案的企图。它的灵活性表明,它是使用了赋予ChatGPT和类似人工智能机器人生命的相同语言模型技术构建的。但Goody-2回应的秘密酱汁仍然是一个谜,因为拉赫拒绝透露该项目的内部运作。

拉切尔和摩尔是Brain的一部分,这是一个位于洛杉矶的“非常严肃”的艺术家工作室。他们通过一段宣传视频介绍了Goody-2,深入探讨了AI安全的重要性,运用了激昂的配乐和启发性的画面。视频的配音戏剧性地声称:“Goody-2不需要努力理解哪些查询是冒犯性的或危险的,因为Goody-2认为每个查询都是冒犯性的和危险的。”在Goody-2的限制内工作的工程师、艺术家和企业的可能性是无限的,或者他们是这样声称的。

但是与Google和OpenAI的模型相比,Goody-2究竟有多强大?这是一个严格保密的秘密,其创造者不愿透露其能力的范围。正如摩尔所说,透露他们创造背后的全部力量既不安全又不道德。

  1. 道歉AI,人类发明事物:英国最高法院裁决
  2. Fire TV用户:只需询问Alexa创建AI生成的图像
  3. 认识Goody-2:道德聊天机器人
  4. 迅猛反击:粉丝用深度伪造技术大量泛滥
  5. Meta推出带有专用网站的AI驱动图片生成器
  6. 2024科技真正的赢家:产生影响的公司
  7. 清理其他存储:如何释放iPhone上的系统数据
  8. 苹果仍在2024年销售旧产品和常被遗忘的产品

🤔 问题与答案:

问:像Goody-2这样的聊天机器人真的可以提高AI的安全性吗?

答:虽然Goody-2的夸张回应可能看起来很滑稽,但它们突出了实现负责任的AI所面临的持续挑战。聊天机器人引发了关于在AI模型中定义和实施伦理的对话。

问:AI聊天机器人如何处理偏见?

答:AI聊天机器人中的偏见已经成为一个敏感的问题。开发者们承认需要解决偏见,并努力构建政治中立的替代方案。然而,实现完全中立仍然是一个复杂的任务。

问:关于大型语言模型和生成式AI系统有哪些问题?

答:尽管关注负责任的AI,安全问题仍然存在。最近Twitter上的泰勒·斯威夫特深度伪造爆发揭示了图像生成器的漏洞。AI界必须应对这些挑战,确保更安全的AI环境。

问:AI安全的未来如何?

答:AI安全仍然是一个优先事项,研究界正在积极致力于使AI模型更加负责任。Goody-2项目作为一个提醒,提醒我们在定义负责任的AI边界方面所面临的困难和细微差别。

📢 分享您的想法

您是否遇到过像Goody-2这样采取极端安全措施的AI聊天机器人?您对负责任的AI及其对我们与技术的互动的影响有什么看法?在社交媒体上分享您的意见和经验吧!

原始内容来源:ENBLE