来源: 时间:2022-05-03 13:35:04
在内容审核指南泄露后,Facebook为其 “内容政策” 辩护之后,一位研究分析师表示,有关直播的现有法律不适用于互联网。
“根据世界各地的中介法,社交媒体公司对谋杀、强奸、恐怖主义和自杀等在线内容不承担任何责任。社交媒体公司的义务仅限于在被告知后删除非法内容,”市场研究公司Counterpoint Research的移动设备和生态系统研究分析师Shobhit Srivastava说。
本周早些时候,Facebook的几份文件 (包括内部培训手册,电子表格和流程图) 被泄露,显示了这家社交媒体巨头如何在其平台上缓解仇恨言论,恐怖主义,色情和自残等问题。英国《卫报》援引泄密事件称,Facebook的版主工作不堪重负,通常 “只有十秒钟” 就可以对平台上发布的内容做出决定。
“最近在网上发布有害视频的事件引发了社交媒体公司如何调节在线内容的严重问题。Facebook拥有非常庞大的用户群 (近20亿个月活跃用户),并且正在扩展,因此在内容主持人的帮助下调节内容是一项艰巨的任务,”Srivastava告诉IANS。
“Facebook还在使用一种软件在内容发布到网上之前对其进行拦截,但仍处于早期阶段。这意味着Facebook必须付出更多的努力来确保内容的安全,“他补充道。
根据Facebook全球政策管理负责人Monika Bickert的说法,平均每天有超过10亿人使用Facebook,他们以数十种语言共享帖子。其中很小一部分将报告给公司进行调查,并且问题范围广泛-从欺凌和仇恨言论到恐怖主义-而且复杂。
她说: “设计既能保护人们安全,又能让他们自由分享的政策意味着理解新出现的社会问题和他们在网上表现出来的方式,并能够每周对来自世界各地的数百万份报告做出快速反应。”
Bickert说,公司审阅者很难理解上下文。她说: “很难判断一个职位背后的意图或另一个职位隐含的风险。”Bickert解释说,该公司并不总是把事情做好,但它认为,在自由和安全之间建立中间立场最终是最好的答案。她说,Facebook必须 “尽可能客观”,以便在其服务的每个领域都有一致的指导方针。
Srivastava指出,“从社交和商业的角度来看,像Facebook等社交媒体公司必须将更多的资源用于内容调节目的,这现在还不够,否则我们将看到各种政府限制访问这些参与者,这将给用户和这些公司带来坏消息。”
上个月,Facebook宣布将招聘更多的3,000名评论者,以确保为用户提供正确的支持。
相关推荐
猜你喜欢