AI监控软件监视伦敦地铁乘客

据《华尔街日报》获得的文件显示,伦敦交通局采用了计算机视觉系统,在一站进行测试,试图检测犯罪和武器、人们跌落轨道,以及逃票者

伦敦地铁目前正在测试先进的人工智能(AI)监控工具,可以实时识别和防止犯罪活动。

👀🚇🔎📸💻

使用地铁的伦敦人可能会惊讶地发现,他们的行动、行为和肢体语言一直受到人工智能监控软件的密切监视。🤖📹 这个软件结合了实时闭路电视摄像头的画面,旨在检测出侵略迹象、武器存在以及危险情况,比如人们掉进铁轨上或逃票。伦敦交通部(TfL)进行了这次试验,在威尔士登格林地铁站测试了11种算法。

2022年10月至2023年9月的试验期间,TfL共产生了超过4.4万个警报,其中1.9万个实时发送给车站工作人员。生成的警报旨在为一线工作人员提供洞察力和帮助。AI算法使用计算机视觉技术来检测各种行为,包括未经许可的进入、潜在的犯罪活动以及危险情况。

然而,这次试验并非没有缺陷。AI系统会出现错误,比如把陪同父母的孩子误认为逃票者,或者无法区分折叠自行车和非折叠自行车。为了提高武器检测的准确性,警察在车站关闭时向闭路电视摄像头展示匕首和枪支,以参与试验。

虽然使用人工智能监控系统在公共场所引发了隐私担忧,但TfL坚称该试验是基于现有的闭路电视图像和多个检测模型进行的。收集到的数据符合TfL的数据政策,并最多保留14天。TfL的政策和社区安全部主管曼迪·麦格雷戈(Mandy McGregor)表示,在试验期间没有证据表明有偏见存在。TfL目前正在分析结果,并考虑进行第二阶段试验的设计和范围。

💭💻🔍

问答:读者想了解什么?

问:试验中使用的目标检测算法有多准确?

目标检测算法,就像这次试验中使用的那样,通常是不完美的,容易出现错误。这次试验中的人工智能系统存在一些限制,比如误认特定的物体或行为。很难在训练数据中捕捉到人类行为的复杂性和细微差别。因此,在使用机器学习系统进行侵略检测时,需要谨慎,因为它们可能会复制社会偏见。

问:在公共场所使用人工智能监控系统会带来哪些隐私影响?

使用人工智能监控系统引发了对隐私和个人权利的担忧。虽然这次试验没有涉及人脸识别技术,但它引发了关于将更先进的检测方法或人脸识别软件纳入监控系统的讨论。当在没有公众咨询和监管的情况下部署这些技术时,就会出现伦理、法律和社会问题。实施这些系统时,透明的治理和公众信任至关重要。

问:AI监控技术是否会在其他车站推广使用?

TfL的试验是一个概念性的验证,尚未就更广泛使用这项技术作出决定。如果要扩大使用这项技术,则需要与当地社区、相关利益相关者和该领域的专家进行充分的磋商。这次试验旨在收集洞察力,以改善人员配备和提高乘客安全性。然而,任何进一步的部署都需要慎重考虑,并考虑公众同意和支持。

💡🔍📑

洞察力和未来发展

在公共场所,包括交通系统中使用人工智能监控技术的趋势正在上升。类似的试验已在纽约等城市进行,其中使用人工智能来跟踪逃票行为。这些举措通常被视为创建智能城市的框架内的一部分。然而,缺乏针对在这些环境中使用人工智能的特定法律和法规引发了对监管真空的担忧。

随着这些系统变得更加普遍,可能会出现升级和扩展,引发进一步的担忧。能够不断更新和增强这些系统的能力引发了关于监控范围和限制的问题。在安全和隐私之间取得正确的平衡对于防止普遍监测的正常化和侵蚀个人自由至关重要。

💡🔗 这里有一些进一步阅读的相关文章:

  1. 公共场所中基于人工智能监控的兴起
  2. 英国对人工智能监控的监管真空
  3. 人脸识别技术的伦理影响

🙋‍♀️🙋‍♂️💬

加入对话并分享您的想法

对于在公共场所使用AI监控,您有什么想法?您认为它是提高安全的有价值工具,还是对隐私构成潜在威胁?分享您的观点,告诉我们您的想法!🗣💭

✨✨✨

记得在社交媒体上关注我们,获取更多有趣的关于最新技术趋势和发展的文章。与您的朋友和同事分享本文章,并加入讨论!我们一起用知识和幽默来航行技术世界吧!🌐💡😄

📌 参考资料:- ENBLE发布的公共场所AI报告TfL数据政策使用情感分析技术逃票试验