据彭博社消息,欧盟委员会正在呼吁诸如Facebook Inc.和Alphabet Inc.等社交媒体公司开发一套常见的工具来侦测、阻止或消除恐怖主义宣传和仇恨言论。
在周四发布的指南中,委员会要求在线平台指派联系人,按照要求快速删除非法内容。该指南还要求他们更多的依赖于“值得信赖的”网络-该网络主要研究非法内容的构成元素-并且为一般用户对可能存在的极端主义内容进行标记和报告提供了方便。
委员会说:“非法内容应在具体的时间限制内尽可能快地被删除,不然可能会造成风险,如煽动恐怖主义行为。”
委员会没有具体限制社交媒体公司快速撤销非法内容的时间,称他们将进一步分析问题。在2016年5月,一些社交媒体公司,包括Facebook Inc.,Twitter Inc.和Google的YouTube自愿承诺在24小时内取消非法内容。 欧盟周四表示,在该计划下,24小时内被移除的标记内容已经从30%增加到了60%。
此后,德国已经通过了一项法律,要求被标记的煽动仇恨言论要在24小时内被删除,否则将受到最高5000万欧元(5,880万美元)的惩罚。英国首相Theresa May 在本月早些时候提出了新的规则,要求互联网公司在两小时内删除极端主义内容。
同时,该委员会表示,网络平台应“引入保障措施,防止过度迁移的风险”。有关保障措施尚未具体说明。
在反对新的德国法律的情况下,Facebook表示,巨额罚款以及非法内容删除紧迫的截止日期规定只不过是为了鼓励消除可能会伤害言论自由的可疑内容。
该委员会还表示,互联网公司应该采取措施劝阻用户反复上传非法内容,并鼓励他们开发更多自动化工具,以防止之前已被删除的内容重新出现。
Facebook,Google,Twitter和Microsoft Corp.于2016年12月合作创建了一个“数字指纹”视频共享数据库,以帮助公司删除违背其政策的极端主义内容。 如果有人尝试将相同的视频上传到不同的社交媒体平台,则会自动将其标记为待审状态。
委员会星期四发出的的指南建议并不具有约束力。但如果公司没有按照2018年5月提出的建议进一步采取措施,那么未来立法的前景将一片渺茫。
多年来,像Facebook和YouTube这样的网站在很大程度上都依赖于数以百计的承包商和员工来手动审查用户违反服务条款的帖子。然而这个方法并不完美,公司高管一直坚持,仅仅依靠人工智能的自动化系统还不足以能够解决问题。
过去一年来,随着这些公司在政治和法律上面临的压力越来越大,他们也越来越多的倾向于使用自动化系统来处理恐怖主义宣传,仇恨言论和假新闻问题。
推荐阅读:>>>欧盟支持开征新税 美国科技巨头“在劫难逃”