来源: 时间:2022-05-10 09:35:09
Facebook可能已经将其22个部门的1,000多个内容主持人的身份暴露给了该平台的可疑恐怖用户。根据《卫报》的一份报告,在去年11月中发现的一个软件错误导致内容主持人的个人资料自动显示为Facebook组中的通知。这些主持人从Facebook上删除了包含不适当内容的页面,例如恐怖主义宣传,仇恨言论和性材料。
Facebook在给《卫报》的一份声明中证实了这一安全漏洞,并表示该公司已经解决了这一问题。此外,根据该报告,Facebook已进行了技术更改,以 “更好地检测并防止此类问题的发生”。
“在1,000名受影响的工人中,约有40名在爱尔兰都柏林的Facebook欧洲总部的反恐部门工作。报告中写道,在Facebook认为他们的个人资料很可能被潜在的恐怖分子查看后,其中6人被评估为错误的 “高度优先” 受害者。
《卫报》引用了其中一名受害者,一名伊拉克出生的爱尔兰公民,他告诉该网站,在发现与可疑恐怖组织有关联的成员 (他已被Facebook禁止) 查看了他的个人资料后,他已经躲藏起来。
同时,Facebook最近宣布已开始使用人工智能 (AI) 来阻止恐怖分子内容在平台上的传播。这家社交媒体巨头正在部署图像匹配,语言理解和跨平台协作等技术,以帮助打击恐怖分子对其服务的使用。
此外,人类的专业知识,包括报告与恐怖主义有关的账户,以及扩大的恐怖主义和安全专家团队,将帮助Facebook了解背景。
相关推荐
猜你喜欢