警务人工智能 - 用例,道德问题和趋势

拉迪卡·马达万
阿凡达

Radhika Madhavan在Emerj报道人工智能创新。Radhika之前在三家技术公司从事内容营销工作,毕业于Sri Krishna工程技术学院,获得信息技术学位。

警务人工智能

2018年7月,Daniel Faggella在国际刑警组织-联合国(区域间犯罪和司法研究所)关于人工智能和机器人对执法的机遇和风险的全球会议上。这是联合国和国际刑警组织首次在警务、安全和执法方面使用人工智能。

自该事件以来,丹尼尔和其他各种联合国和国际刑警组织的活动,因为Emerj一直在继续报道人工智能的应用防御和反恐。

当Unicri计划汇总报告时用于执法的人工智能和机器人技术他们试图为对AI的近期申请感兴趣的警察领导者创造一个初名。丹尼尔和EMERJ团队帮助巧妙的使用情况部分,但完整的报告涵盖了各种各样的主题,值得考虑有兴趣的任何对执法和AI感兴趣的人。本文总结了报告的内容和Emerj在执法方面的现实世界AI使用案例的覆盖范围。

犯罪和司法研究所的报告和本文讨论了以下一些重要问题:

  1. 将AI整合到执法方面有哪些好处?
  2. 执法部门能做些什么来预测和缓解人工智能和机器人的武器化?
  3. 执法部门如何成功地在现实世界中实现人工智能和机器人的某些用例?
  4. 人工智能系统如何在隐私和安全之间保持平衡?
  5. 为什么要将人工智能的道德使用明确分类并在执法中强制执行,作为其他领域和行业的参考框架?

以下部分对犯罪和司法研究所报告的主要观点进行了全面总结,并详细阐述了在执法中工作的人工智能应用,并链接了我们对Emerj的其他用例覆盖。

人工智能的应用和威胁

该报告将执法人员的AI和机器人应用程序删除为四大类:预测分析,,认出,探索和沟通–如下图所示:

国际刑警组织1

图像来源:执法中的四类AI用例

(报告:执法用人工智能和机器人)

报告说,由于人工智能的某些局限性,执法部门目前将只关注狭隘的人工智能和半自治机构,以增强执法官员的能力。下一节将详细讨论其中一些可被视为AI在执法中的好处的用例。

该报告认为,人工智能和机器人技术可以很好地武器化,因为它可以在预防犯罪的警务工作中得到很好的实施。报告指出,“来自14个机构(包括学术界、民间社会、,和工业界)深入调查了这一问题,并提出可能使人工智能和机器人吸引执法的许多相同特征(如规模、速度、性能、距离)可能使人工智能和机器人同样吸引罪犯和恐怖组织。”

根据这份报告,该报告确定了三个主要的攻击领域:

  1. 数字攻击,例如自动鱼叉式网络钓鱼,自动发现和利用网络漏洞。
  2. 政治攻击,例如假新闻或媒体的扩散,以产生混淆或冲突或面对交换和欺骗工具,以操纵视频和危害政治人物的信任甚至导致证据在法庭上受到质疑的有效性。
  3. 身体攻击比如可以识别人脸的武装无人机或走私违禁品的无人机。在数字攻击的背景下,该报告进一步指出,人工智能可以被用来直接实施有害行为,或通过毒害数据集来颠覆另一个人工智能系统。”

报告警告说,尽管人工智能和机器人的武器化没有像预期的那样在社会中扩散,但未来几年将看到人工智能和机器人用于犯罪和恐怖目的的兴起。

For instance, the report provides real-time malicious events in the past, such as the drones used to distribute a radioactive source to the Japanese Prime Minister’s office in Tokyo and drones used as unmanned aerial improvised explosive devices by the Islamic State of Iraq and the Levant (ISIL), etc.

为了打击这一潜在的刑事运行,该报告通过审慎在执行战略方面的战略方针和有意识的努力和资源方面为政管而建议执法行动。

人工智能入门1200x200@2x

警务中的机器人技术和人工智能——用例探索

Emerj很荣幸能够帮助UNICRI提供人工智能和机器人案例研究和执法应用的实时实例——但分类用例的有用框架来自报告的作者和国际刑警组织的工作人员。

区域间犯罪和司法研究所和国际刑警组织用例图

虽然有许多有用的“镜头”用于在执法中分析AI应用程序,但该报告使用上述相同的四个广泛类别,结合了申请相对成熟度的标准。以下是完整报告的示例图形:

国际刑警组织2

图像来源:用例会话的结果

(报告:执法用人工智能和机器人)

在未来两年,我们预计将看到更多新颖的计算机视觉应用程序进入第一世界警察部队的主流——在发达国家资金极其充裕的城市中,预测性警务发挥着越来越大的作用。采用的增加部分将归因于IT工具自然而缓慢的升级——但部分将归因于成熟的人工智能供应商生态系统,该系统能够构建具有更简单和直观用户界面的人工智能工具。

关于Emerj的与警察相关的AI用例覆盖

对于这些主题的详细探索,我们建议读者在以下主题上探索我们更深入的用例探索:

实现道德平衡——隐私和安全

AI和机器人执法报告指出,随着用例日益扩展到增强的监视能力,对道德和隐私权的担忧不可避免地出现。

考虑到决定AI和机器人在执法中的道德使用的几个哲学、上下文和情境复杂性,该报告提出了四个基本特征,以实现“安全和隐私之间的平衡”:

  • 公平:避免侵犯言论自由、无罪推定等权利。
    • 例子:如果AI系统决定了男性(或特定种族的男性),更有可能是暴力犯罪的肇事者 - 如果考虑到潜在的肇事者跟进培训数据?
  • 问责制:人和机器必须在机构和组织层面负责。
    • 例子:如果人工智能系统协助了错误的指控,或者人工智能监控工具的错误给无辜的人造成了个人损失,谁将为错误负责,如何解决?系统的创造者会受到质疑吗?那些负责维护算法的人会以某种方式对公众负责吗?如果是的话,又该如何负责?
  • 透明度:AI系统所做的决定必须是透明的,而不是“黑盒子”。
    • 例子:如果AI系统指示警方以防他们应该巡逻的地方,以防止暴力犯罪 - 将对人类用户进行这些建议的基础(可能称重,以及它们的称重方式)是清楚的吗?
  • Explainability:AI系统所采取的决定必须是人类可以理解的。
    • 例子:如果一个人工智能系统将某些沟通渠道标记为高风险或值得调查,它能否说明为什么一个信息(或人)被标记,而另一个没有?用户是否可以问“为什么”——或者提示机器的结论出现故障?

这些原则在不同的国家会有不同的解释。然而,对于几乎所有的国家来说,似乎所有的监控模式都会随着人工智能的出现而得到改善——而这一不可避免的浪潮是每个社会都要应对的*

该报告引用了一些参与AI道德原则制定的大型国际机构,包括:

  • “电气和电子工程师协会(IEEE)发表了一篇关于自主和智能系统道德规范的全球论文(符合道德规范的设计),以使技术符合道德价值观和道德原则……”(我们涵盖了IEEE的伦理一致设计工作前一篇深入的文章).
  • “欧洲议会也这么做了提出了咨询行为守则机器人工程师指导机器人的道德设计、生产和使用,以及一个考虑机器人法律地位的法律框架,以确保某些权利和责任。”

该报告的作者坚持认为,法律执行AI使用案件可以被视为重要的测试案例,可以为其他行业和组织的诉诸AI和机器人提供伦理使用的规范和机构,并且在这种相对新生的阶段值得考虑采用。

We’d like to give a special thanks to the folks at UNICRI and INTERPOL for creating a forum to explore AI in law enforcement, and for their efforts in compiling the original report (linked at the beginning of this document) that this article is based upon.

关于这个话题的更多细节,请点击播客人工智能道德如何影响底线——实践关注点概述,或观看丹尼尔的短youtube视频标题AI伦理:透明度,问责制和移动过去的美德信号

标题图像信用:CuInsight

保持在AI曲线的前面

发现在未来业务中区分赢家和输家的关键AI趋势和应用程序。

注册“AI Advantage”时事通讯:

" data-trigger="manual" data-title="Notice" data-placement="bottom" data-content="Thanks - check your inbox for a confirmation email">
" data-trigger="manual" data-title="Notice" data-placement="bottom" data-content="Error - There was some problem.">
订阅
subscribe-image
保持在机器学习曲线的前面

加入超过2万名专注于人工智能的商业领袖,并接收我们每周发布的最新人工智能研究和趋势。

感谢您订阅Emerj“AI Advantage”时事通讯,请查看您的电子邮件收件箱以获得确认。