注册

Avatar

hezuo

时间:2018/02/26阅读:4778下载量:

专家研究警示:人工智能或成未来犯罪与政变的新手段

【(微信号:)】2月26日报道 (编译:叶展盛)

二十多位专家针对新兴技术做出的一份报告中警示,未来五到十年内人工智能可能会成为网络犯罪、实体攻击和政治变动的新手段。

这份报告有100页,其标题为“人工智能被用于歧途:预测、预防和缓解”,由来自14个不同机构组织的26位专家所撰写,包括牛津大学人类未来研究所、剑桥大学生存危机研究中心、埃隆·马斯克的OpenAI以及电子前哨基金会。这份报告的撰写基于一次为期两天的研讨会,该研讨会于去年2月举办于牛津大学。在报告中,作者们描述了人工智能在未来几年里可能会通过哪些方式被用于歧途,它主要针对于三个安全领域——数字、实体和政治,人工智能在这三个领域的恶意使用。

“我们经常能看到人工智能系统不仅达到了人类的表现,甚至还会超出许多。要考虑高强度的黑客入侵、监视和实体目标识别等应用,这很麻烦,但是却很必要。人工智能的能力已经接近于人类,但是它的扩张性却比人类的劳动力强大得多。”牛津大学人类未来研究所的研究员Miles Brundage说道,他也是这篇报告的联合作者之一。

的确,这份针对人工智能的报告也正值人工智能被敌对国家、罪犯和恐怖分子当做负面颠覆力量去使用的时期,他们可以借助人工智能的规模和效率来进行更加精准和高效的攻击。

“随着人工智能变得越来越强大,应用越来越广泛,我们认为人工智能系统会带来新的危机。”这份报告里写道。

报告的作者们表示攻击的成本会因为人工智能的推广和传统人力工作被取代而降低。同样地,新的威胁会因为人工智能可以完成过去那些人类难以完成的任务二出现。

“我们认为应用越来越广泛的人工智能会因为它的高效、定位性强、追踪困难而引发新的攻击,另外人工智能系统的漏洞也有可能会被利用。”他们写道。

具体点讲,这些作者警示的虚拟攻击包括自动化入侵、鱼叉式网络钓鱼、针对冒充的目标进行语言合成和“数据毒药”等。半无人驾驶汽车、纯无人驾驶汽车以及无人机的出现也会引发新的危机,包括让几辆无人驾驶汽车发生碰撞,通过数千家无人机发动攻击,将商业无人机改成具备面部识别功能的“刺客”,甚至不法分子还能挟持重要的基础设施进行勒索。在政治上,人工智能可以影响群众的观点,创建极具针对性的宣传活动,或者发布虚假(但看起来很有可信度)的内容。另外人工智能还能更好地在公众和私人领域进行监控。

“我们预计这些攻击会利用更强的能力,根据现有的数据对人类行为、心理和认知进行分析。这些忧虑在那些独裁主义者的国家会更加明显,同时它还会破坏民主,可信的公众言论也将不复存在。”

“虚假信息”的时代已然到来,想要辨别真实与虚假的报道也越来越困难。俄罗斯对美国总统大选的干预也表明了某些行政体也会将社交网络用于歧途。

剑桥大学生存危机研究中心的高管Seán Ó hÉigeartaigh也是这份报告的联合作者之一,他表示人类对人工智能和机器学习的态度也不再像过去那样只是单纯的看好。“这份报告推荐的一些方法可能会有所帮助:例如,如何让设计的软件和硬件更不容易被入侵——以及什么样的法律和国际监管制度能在这方面起到作用。”他解释道。为了缓解这些即将出现的危机,Ó hÉigeartaigh和他的同时给出了五条建议:

人工智能和机器学习的研究者以及工程师必须承认自己研究的使用本质具有正反两面。

决策者必须和技术研究员密切合作,以调查、预防和解决人工智能技术潜在的恶意应用。

最好的方法就是讲人工智能和其他极具利害性的科技领域区分开来,并引入针对人工智能的案例。

在这些领域优先开发出标准的道德框架。

当做出这些改变时,持股者和专家应该参与到讨论中。

除了这些策略,作者们还表示在投资某个技术解决方案时,必须“反复思考”虚拟安全问题;开发人员要培养一种“责任文化”,明白数据共享和开放带来的力量。

网络安全公司High-Tech Bridge的首席执行官Ilia Kolochenko则认为这篇报告的作者有些言过其实,在未来十年内这个行业不会有什么变化。“首先,我们要把Strong AI和我们平时经常误用的‘AI’区分开来,前者是完全有可能取代人类大脑的,而后者会变得更加普及。” Kolochenko在一封邮件中写道。

他表示犯罪分子之所以能通过简单的机器学习算法来提高自己的攻击效率,只是因为网络安全的缺陷和机构组织的疏忽。对于Kolochenko而言,机器学习只是一种“附属加速工具”而已。

“我们应该明白,人工智能和机器学习也能帮助我们对抗虚拟犯罪。除此之外,人工智能技术的开发也需要长期的投资,这是大多数黑帽黑客无法承受的。因此我并不认为人工智能会在未来五年时间里给我们带来什么实质性风险。”他补充道。

Kolochenko说的人工智能可以帮助我们对抗攻击的确没错,但是“没有什么实质性风险”似乎就缺少些根据。毕竟在人工智能真正威胁到我们个人之前,没有多少人会重视这份报告里的警示。

标签:

copyright © www.scitycase.com all rights reserve.
京ICP备16019547号-5