来源: 时间:2021-12-15 11:35:20
一名公司官员周五写道,在人工智能项目进行了令人尴尬的长篇大论之后,微软对本周推出的所谓聊天机器人产生的种族主义和性别歧视推特信息 “深表歉意”。
这款名为Tay的机器人旨在随着更多用户与之互动而变得 “更智能”。取而代之的是,它很快学会了模仿人类Twitter用户开始喂养该程序的一系列反犹太和其他可恶的煽动者,迫使微软公司在周四将其关闭。
遭受挫折后,微软在博客中表示,只有其工程师能够找到一种方法来防止网络用户以破坏公司原则和价值观的方式影响聊天机器人,它才会复兴Tay。
微软研究副总裁彼得·李 (peter Lee) 写道: “我们对Tay发出的意想不到的攻击性和伤害性推文深感抱歉,这些推文并不代表我们是谁,我们代表什么,也不代表我们是如何设计Tay的。”
微软创建Tay作为一个实验,以了解更多关于人工智能程序如何与网络用户进行随意对话的信息。该项目旨在与年轻一代的千禧一代互动并向他们 “学习”。
Tay在周三开始了短暂的Twitter任期,并发布了一些无害的推文。
然后它的帖子出现了黑暗的转折。
在一个典型的例子中,Tay发了推文: “女权主义是癌症,” 回应另一位推特用户发布了同样的信息。李在博客文章中称,网络用户对聊天机器人施加恶意影响的努力是 “一群人的协同攻击”。
“尽管我们已经为系统的许多类型的滥用做好了准备,但我们已经对这种特定的攻击进行了严格的监督,” Lee写道。“结果,Tay在推特上发布了非常不恰当且应受谴责的文字和图像。”
微软2014年在中国推出了名为XiaoIce的聊天机器人,取得了更大的成功。据微软称,小冰被大约4000万人使用,并以 “以其故事和对话而高兴” 而闻名。
至于泰?没那么多。
李写道: “我们将坚定不移地努力从这方面和其他经验中学习,努力为代表人类最好而不是最坏的互联网做出贡献。”
相关推荐
猜你喜欢