来源: 时间:2022-12-13 20:35:00
由戴维·阿尔巴、卡蒂·埃德蒙森和迈克·艾萨克撰写
Facebook周二公布了一系列变化,以限制其网站上的仇恨言论和极端主义,因为人们对社交网络如何激进化的审查越来越多。
该公司在宣布这一消息时表示,它将扩大对恐怖组织的定义,并补充说,它计划部署人工智能来更好地发现和阻止枪击事件的现场视频。几个小时后,Facebook在致众议院小组主席的一封信中表示,将阻止边缘网站8chan和4chan的链接发布在其平台上。当天晚些时候,它详细介绍了如何建立一个由11名成员组成的监督委员会来审查和监督内容决策。
总部位于硅谷的Facebook在参议院商务委员会 (Senate Commerce Committee) 向国会山的公司,谷歌和Twitter询问他们如何处理暴力内容的前一天透露了这些变化。周二,一个由两党组成的国会议员小组还向Twitter,Facebook和YouTube发送了一封信,内容涉及国际恐怖组织在网站上的存在以及这些组织如何煽动仇恨。
一些在线研究极端主义的专家对Facebook的扩大努力表示欢迎,尤其是对恐怖主义的更广泛定义。但他们强调,该计划的有效性将取决于细节-Facebook在实践中划清界限,以及公司如何报告自己的工作。
该公司表示,在过去两年中,它已发现并删除了99% 极端主义帖子-约2600万条内容-然后才报告给它。
Facebook表示,现在将把企图对平民施加暴力的人和组织视为恐怖分子,而不是将恐怖主义定义为旨在实现政治或意识形态目标的暴力行为的旧方法。
在周二致众议员的一封信中众议院国土安全委员会情报和反恐小组委员会主席、纽约的马克斯·罗斯 (Max Rose) 也表示,Facebook “阻止了与8chan和4chan上专门分发邪恶内容的地方的链接。”
在Facebook内部,该公司还开发了一个监督委员会一年多。
成员将监督和解释Facebook现有的社区标准如何由其内容主持人执行,可以指示Facebook允许或删除内容,并将被要求坚持或撤销对内容删除的指定
相关推荐
猜你喜欢