登录

快速注册

谷歌也才明白:仅凭人工智能遏制不了恐怖主义|潮科技

作者:石筱玉 时间:2017/06/20 阅读:6502
作者| 石筱玉 编辑| 傅博 据Engadget报道,为抗击网络恐怖主义的发展,谷歌近期在多方压力下推出四项措 […]

作者| 石筱玉

编辑| 傅博

Engadget报道,为抗击网络恐怖主义的发展,谷歌近期在多方压力下推出四项措施,意图利用AI、增加人手等措施升级对用户发表内容的审查。

事实上, 谷歌等社交网络的运营者一直在努力杜绝极端思想在社交网站上的影响力。此前,在Twitter、Facebook、Google(Youtube)等主流社交网站上都曾发生恐怖组织借助社交媒体宣传恐怖主义、吸纳参与者的事件。

正因为如此,网络恐怖主义也逐渐受到了各个主权国家的重视。

6月13日,英国、法国发表的联合声明就表示两国将共同阻止极端思想在网络上滋生。与此同时,他们也呼吁各大科技公司进行技术、人力投入,并称两国目前在考虑对恐怖主义思想有所姑息的网站使用法律手段。

谷歌也才明白:仅凭人工智能遏制不了恐怖主义|潮科技

英国首相特蕾莎·梅、法国总统马克隆在6月13日发表联合声明。

本次Google的四项措施“组合拳”的部分初衷也是为了相应英国、法国政府的号召。谷歌在声明中表示,“尽管我们和其他公司一起,多年以来一直对违反规定的内容进行识别和删除,我们还是必须面对这一不幸的事实:我们这个行业需要作出更多的努力。”

谷歌的四步“组合拳”:从人力手段、机器学习到用户定向宣传

谷歌的声明中提到了四个新增手段:

首先,谷歌表示将在识别极端主义、恐怖主义视频内容时使用更多的技术手段,并表示过去几年中删除的恐怖主义视频内容有半数以上都来自于新技术的发现。不过,谷歌也坦诚了这项任务的复杂性:

“一个恐怖袭击视频被BBC发布时可能是新闻,但在另一个语境下被他人发布可能就成了对暴力的美化和赞颂。”为了更好地识别相关语境和用户立场,谷歌表示将加大机器学习领域的投入,以研发新的“内容分类者”。

第二,谷歌表示将扩展Youtube视频网站的独立内容审核员(Trusted Flagger)队伍。

谷歌表示,类似的内容审核员能够对歧视性内容、自残行为、恐怖主义等内容的细节进行识别与把控,并且在这一阶段的准确率(90%以上)大幅高于机器识别。谷歌表示,在近期会更与反恐怖阻止和其他类非政府组织进行更深入的合作。

第三,谷歌将提高自身审查标准,并对此前未进行明确把控的煽动性宗教、白人至上主义等言论进行更严格的监管。这些内容将不会允许评论,或不能被作为推荐内容,从而更难被其它用户搜索到。

最后,Youtube将会和前身为Google Ideas的智库、孵化器Jigsaw进行合作,开发“重定向方案”(Redirect Method)为受到伊斯兰国(ISIS)等极端思想影响的人士推荐反极端思想的内容,以此阻止他们成为极端主义人士。

科技公司与“审查难题”:模糊的标准,人手的缺乏

此前,谷歌在反极端宗教、恐怖主义的新技术运用上也取得了突出的成效。在“重定向方案”此前的应用中,谷歌发现受伊斯兰国思想影响的用户以非常高的比例点击这些向他们投放的内容,并观看了总计超过五十万分钟的反伊斯兰国视频内容。谷歌目前正希望将“重定向方案”的适用人群进行拓展。

Jigsaw的研发总监Yasmin Green表示,在看到网上对“伊斯兰国”相关内容的好奇心和访问请求非常大时,他们认为必须将这些人与网络上值得信赖的反恐思想联系起来。Green称:

‘重定向方案’在本质上其实是一个定向投放的广告——让我们对易受伊斯兰国洗脑的用户进行教育,并向他们推广反伊斯兰国的相关信息。”Jigsaw组织整理的相关信息包括前恐怖主义者的认罪反思、伊玛目(伊斯兰教领袖)对伊斯兰国的批评,与知情人在北叙利亚、伊拉克的伊斯兰国组织里拍下的乱象。

谷歌也表示,目前他们也在和Facebook、Twitter、Microsoft等行业巨头进行合作,争取建立一个共享技术信息、支持小企业发展的合作平台,以更有效地抗击网络恐怖主义。

相似的是,Facebook近期也在考虑对自身的内容审查系统进行升级与发展。Facebook的这一项举措不仅是为相应英、法等国家号召,也是为解决近期公众对其“不透明”的审查手段的不满。

据英国卫报消息,在阅读Facebook一百多份内部培训指南、文件及图标后,记者发现Facebook对于暴力、自残、虐待等内容的审查及其不明确,甚至时常出现“双重标准”。例如,Facebook在一些文件中表示允许用户对自残进行直播,原因是“不希望对在压力中的人进行审查或惩罚”。这样的一系列条款引起了公众很多不满。

谷歌也才明白:仅凭人工智能遏制不了恐怖主义|潮科技

卫报公布的Facebook内部指南,其中“事实暴力”中,“某个人去枪击川普吧”不被允许,而“踢红发的人”“扭断一个贱人的脖子”等被允许。

对此,Facebook的全球政策管理负责人Monika Bickert表示,在Facebook超过20亿的用户中寻求一致同意是不可能的:“我们的用户来自世界各地,他们对‘什么内容可以分享’有着截然不同的观点。不论你在哪里画出界限,在界限中也永远都会有‘灰色空间’。”

此外,Facebook和谷歌一样计划在4500名内容审查员以外增加3000人,以应对不断增长的用户群和不断涌入的不良内容。但是,Fortune等分析也对Facebook这一举动提出质疑:即使扩大了审查人手,其指南中暧昧不明的思想也将成为其内容审查的绊脚石。

通过这些科技巨头的计划与政策我们能够看出,在可见的将来,对恐怖主义等不良内容的审查将会仍旧是机器学习+人力审核的模式。由于人工智能目前审核的正确率依旧有不少提升的空间,真人审核员在把握内容上还是有着不可或缺的作用。

但是,如今我们必须认识到网络已经成为了反恐怖主义的“战场”。

在恐怖主义面前,不论是模棱两可的审核条例,还是姑息迁就的审核态度,对于科技公司来说都是不可取的。科技公司不仅应树立清晰明确、符合民意的审查标准,以此加强对恐怖主义、极端思想的审查,更应该像Youtube和Jigsaw一样寻求科技手段反极端、反洗脑的解决方式。

发表回复


copyright © www.scitycase.com all rights reserve.
京ICP备16019547号-5