来源: 时间:2022-10-11 11:35:07
作者:娜塔莎·辛格
俄亥俄州一个城镇的一名值夜班的警察最近接到了一个来自脸书的不寻常的电话。
根据警方关于此案的报告,当天早些时候,一名当地妇女在脸书邮报上写道,她正走在回家的路上,打算在到达那里时自杀。脸书打电话警告警察部门自杀威胁。
警方报告称,接电话的警察很快找到了这名妇女,但她否认有自杀想法。即便如此,警察认为她可能会伤害自己,并告诉这名妇女她必须去医院--要么自愿去,要么被警方拘留。他最终开车送她去医院进行精神健康检查,这是由脸书的干预促成的评估。(《纽约时报》出于隐私考虑,隐瞒了此案的一些细节。)
在过去的18个月里,从马萨诸塞州到孟买的警察局都收到了脸书的类似警报,这很可能是世界上最大的自杀威胁筛查和警报项目的一部分。2017年初,几个人在脸书直播自己的自杀后,社交网络加大了力度。它现在利用算法和用户报告来标记可能的自杀威胁。
脸书作为全球精神痛苦仲裁者的崛起使该社交网络处于棘手的境地,因为它正因隐私缺失而受到美国、加拿大和欧盟监管机构的调查,并因未能对其网站上的选举干预和种族仇恨运动做出迅速反应而面临更高的审查。尽管脸书首席执行官马克·扎克伯格(Mark Zuckerberg)为不当收集用户数据道歉,但该公司上个月仍在努力应对与科技公司达成特殊数据共享协议的新披露。
反自杀运动给了脸书一个机会,把它的工作描绘成一个好新闻故事。根据世界卫生组织的数据,自杀是全球15至29岁人群的第二大死因。一些精神健康专家和警方官员表示,脸书帮助官员找到并阻止了明显要伤害自己的人。
脸书有计算机算法,可以扫描美国和其他国家用户的帖子、评论和视频,寻找立即自杀风险的迹象。当一个帖子被技术或相关用户标记时,它会转移到公司的人工审查员那里,他们有权打电话给当地执法部门。
扎克伯格在11月的一篇关于这些努力的帖子中写道:“在过去的一年里,我们帮助第一反应者迅速接触到全球约3500名需要帮助的人。”
但其他精神健康专家表示,脸书打电话给警方也可能造成伤害--比如无意中引发自杀,迫使非自杀者接受精神病学评估,或者引发逮捕或枪击。
他们说,目前还不清楚该公司的方法是否准确、有效或安全。脸书表示,出于隐私原因,它没有跟踪报警的结果。它也没有透露它的审查人员是如何决定是否呼叫紧急救援人员的。批评者说,脸书承担了公共卫生机构的权力,同时保护其过程,就好像这是一个企业秘密一样。
波士顿贝丝·以色列女执事医疗中心数字精神病学pision主任约翰·托鲁斯博士说:“很难知道脸书实际上在了解什么,他们实际上在采取什么行动,以及他们是否对适当的风险做出了适当的反应。”“是黑匣子药。”
脸书表示,它与自杀预防专家合作开发了一个全面的程序,可以快速将处于困境的用户与朋友联系起来,并向他们发送求助热线的联系方式。它说,专家们还帮助培训了专门的脸书团队,他们在执法和危机应对方面有经验,以审查最紧急的案件。该公司表示,这些审查员只在少数情况下联系紧急服务,当用户出现严重自残的迫在眉睫的风险时。
脸书发言人艾米丽·凯恩(Emily Cain)在一份声明中表示:“虽然我们的努力并不完美,但我们决定尽快向需要帮助的人提供资源,这是错误的。”
在9月份的一篇文章中,Facebook描述了它是如何开发一个模式识别系统的,该系统可以自动为某些用户的帖子和评论打分,以判断自杀想法的可能性。该系统自动将高分帖子以及相关用户提交的帖子升级到受过专门培训的审查员。
“脸书一直遥遥领先,”国家自杀预防生命线主任约翰·德雷珀说,“不仅在自杀预防方面,而且在创新方面迈出了额外的一步,并用真正聪明和前瞻性的方法让我们参与进来。”(管理生命线的非营利组织“活力情绪健康”已经为Facebook提供了建议,并获得了资助。)
脸书表示,其自杀风险评分系统以英语、西班牙语、葡萄牙语和阿拉伯语在全球范围内运行--但欧盟除外,那里的数据保护法限制收集健康信息等个人信息。没有办法选择退出,除了不发布或删除你的脸书账户。
《泰晤士报》根据《信息自由法》的要求获得了四份警方报告,对这些报告的审查表明,脸书的做法产生了喜忧参半的结果。除了俄亥俄州的案件,警察部门编辑了脸书标记的人的名字。
在5月份的一个案例中,一名脸书代表帮助南卡罗来纳州洛克山的警察找到了一名在脸书直播上直播自杀企图的男子。在给警察局的电话录音中,脸书代表向一名警察接线员描述了视频中的背景--树木、路牌,并提供了该男子电话的经纬度。
警察部门认为脸书帮助警察找到了这名试图逃跑并被送往医院的男子。
“那天晚上有两个人打电话给警察,但他们不能告诉我们他在哪里,”罗克希尔警察电信运营商考特尼·戴维斯说,她接听了脸书的电话。“脸书可以。”
马萨诸塞州马什皮的警察局有不同的经历。就在2017年8月23日早上5点16分之前,马什比的一名警察调度员接到了邻近警察局的电话,说一名男子在脸书直播上直播自杀。几分钟后,警察到达了这名男子的家,但根据警方记录,当他们到达他的时候,他已经没有脉搏了。
报道称,早上6点09分,脸书的一名代表打电话提醒警方自杀威胁。
马什比警察局局长斯科特·W·卡林拒绝置评。但他谈到脸书时说,“我希望看到他们改进现有的自杀预防工具,以识别可能致命的警告信号。”
脸书的凯恩说,在某些情况下,不幸的是,帮助没有及时到达。“当这种情况发生时,我们真的同情那些人和他们所爱的人,”她说。
第四起案件发生在2017年5月,涉及佐治亚州梅肯的一名青少年,他试图自杀。比布县治安官办公室的一名女发言人说,警察已经在她家里发现了这名少年后,脸书报警了。这名少年在这次尝试中幸存了下来。
一些健康研究人员也试图预测自杀风险,但他们正在使用更透明的方法,并收集结果的证据。
退伍军人事务部开发了一个自杀风险预测程序,使用人工智能扫描退伍军人的医疗记录,以检查某些药物和疾病。如果系统将退伍军人识别为高风险,退伍军人管理局将提供精神健康预约和其他服务。退伍军人管理局一项研究的初步发现报告说,与没有参与的退伍军人相比,参加该项目的退伍军人的总体死亡人数更少。
在耶鲁大学法学杂志即将发表的一篇文章中,卫生法学者梅森·马克斯(Mason Marks)认为,脸书的自杀风险评分软件,以及可能导致强制性精神评估的报警,构成了医学实践。他说,政府机构应该监管该项目,要求脸书出示安全和有效性证据。
耶鲁大学法学院和纽约大学法学院的研究员马克斯说:“在这种对脸书的信任真的在侵蚀的环境下,我担心脸书只是在说,'在这里相信我们‘。”
脸书的凯恩不同意该项目相当于健康筛查。“这些都是复杂的问题,”她说,“这就是为什么我们一直与专家密切合作。”
相关推荐
猜你喜欢