首页 > 发现

一小时内不删违规内容 欧盟将罚互联网公司4%年收入

2019/04/18 10:24      腾讯科技   [用户 H100上传 ]  


  最近一段时间,社交网络和互联网公司未能够及时删除平台上的暴力、极端和仇恨内容引发了舆论高度关注。据外媒最新消息,周三,欧洲议会投票决定,如果脸书(Facebook)、谷歌和推特等互联网等公司在被政府当局要求删除极端主义内容后一小时内持续不能删除这些内容,它们将面临巨额罚款,上限为全球范围营业收入的4%。

  据国外媒体报道,3月份,一名持枪歹徒在两座新西兰清真寺制造了造成50人死亡的悲剧,枪手当时通过脸书的视频直播服务直播了屠杀过程。此后,外界要求互联网公司加快删除违规内容的速度。

  在周三的一次投票中,欧洲议会以308票对204票,70票弃权,通过了打击出于“恐怖主义目的”滥用互联网内容托管服务的提案。

  新法律提到:“系统地、持续地不遵守法律的公司可能会被制裁,最高上限为其全世界营业收入的4%。”

  新的欧洲议会将于5月23日至26日选举产生,届时将与欧盟委员会(EuropeanCommission)和欧盟各国政府代表进行谈判,最终确定上述新法律的文本,这一过程可能需要数月时间。

  该法律草案的议会报告员丹尼尔·道尔顿(Daniel Dalton)表示:“很明显,恐怖分子的材料在互联网上传播太久,这带来了一个问题。”

  “这种宣传可以与实际的恐怖主义事件联系起来,政府当局必须能够果断地采取行动。如果我们要保障言论自由,任何新的法律都必须切合现实。另外,新法律绝对不会导致通过后门对内容进行全面监控。”

  欧盟官员之所以采取监管措施,是因为他们认为互联网公司在自愿监管内容的模式下做得不够。而在互联网平台出现违规内容时,第一个小时内删除十分重要,否则将会造成在整个网络上的病毒式传播。

  脸书表示,在枪击案发生后的24小时内,该公司删除了150万段包含新西兰袭击画面的视频。

  据报道,三位联合国人权特别报告员和欧盟自己的人权监察机构表达了监管法律缺失或者现有法律被滥用的担忧。

  目前,互联网公司依靠自动化工具和人类工作人员的组合方式来发现和删除极端主义内容。然而,当非法内容被从一个平台上删除时,它往往会出现在另一个平台上,从而使政府部门监管违规内容的能力受到限制。

  针对业界的某种担心,即小型平台不具备迅速遵守欧盟更严格规则的资源,议员们表示,当局应考虑相关公司的规模和收入。

  这些措施草案呼吁欧盟各国政府建立识别极端主义内容的工具和上诉流程。另外一小时内删除的时间从国家级政府部门发出通知开始计算。

  在全球监管机构迫使科技公司对其网站内容承担更大责任的努力中,欧盟一直站在前列。

  在新西兰枪杀事件中,直播画面和视频在全世界社交网络上广泛传播,带来了不良影响。

  另据外媒报道,在美国国内也出现了一种声音,要求对以往的美国通信规范法进行修改,取消互联网公司无需为用户上传的内容承担法律责任的条款。如果社交网络公司必须为用户内容承担责任,他们将有更大的动力快速删除暴力、极端主义等内容。(腾讯科技审校/承曦)

  发现本站文章存在版权等问题,烦请30天内提供版权疑问、身份证明、版权证明、联系方式等发邮件至news@citmt.cn,管理员将及时处理。

相关阅读