来源: 时间:2022-11-06 12:35:06
包括Facebook、Instagram和Twitter在内的科技公司如果不能迅速采取行动删除鼓励恐怖主义和儿童性剥削和性虐待的内容,将面临 “巨额” 罚款或英国禁令。
内政部表示,如果在短时间内未删除非法内容,这些公司的董事也可能承担个人责任。周一立法启动后,将在为期12周的咨询中检查确切的罚款水平。假新闻的传播和对选举的干预也将得到解决。
上个月在新西兰发生的恐怖袭击突显了对自愿守则制定新法律的必要性,该袭击在网上直播录像时,有50名穆斯林被杀。在英国,14岁的莫莉·罗素 (Molly Russell) 的案例也集中了人们的注意力。据她的父亲说,这名少年在网上查看自残和自杀内容后2017年自杀。
内政大臣萨吉德·贾维德 (Sajid Javid) 在其办公室发布的一份声明中说: “简而言之,科技公司在保护用户和阻止这些令人震惊的内容方面做得不够。”“我们的新提议将保护英国公民,并确保科技公司不再能够忽视他们的责任。”
搜索引擎以及在线消息服务和文件托管网站也将受到新监管机构的管辖。将需要有关公司为删除和阻止有害内容所做的年度报告,并且将要求针对儿童的流媒体网站 (例如YouTube Kids) 阻止有害内容,例如暴力图像或色情内容。
另外,为了解决其问题,Facebook需要接受其在创建这些问题中的作用
此前,Facebook首席执行官马克·扎克伯格 (Mark Zuckerberg) 3月30日呼吁 “政府和监管机构发挥更积极的作用”。
相关推荐
猜你喜欢