来源:互联网 时间:2021-04-22 19:18:22
当世界各国政府考虑如何监管AI时,欧盟正在计划制定先例立法,对技术进行严格限制。欧盟执行委员会欧洲委员会周三详细介绍了一种监管方法,该方法要求采用四层系统,将AI软件分为不同的风险类别,并对每类风险进行适当级别的监管。
最顶端的是对人们的权利和安全构成“不可接受的”风险的系统。欧盟将根据委员会提议的立法彻底禁止这些类型的算法。任何可以使政府和公司实施社会评分系统的AI都属于此类软件。
在此之下是所谓的高风险AI的类别。就随附软件的种类和建议的限制而言,本节的内容最为广泛。欧盟委员会表示,这些系统将受到严格的监管,涉及到从用于培训它们的数据集到构成适当的人类监督水平以及它们如何将信息传递给最终用户等所有方面。此类别中包括与执法相关的AI和所有形式的远程生物特征识别。尽管欧盟会出于国家安全等方面的考虑制定一些例外规定,但不允许警察在公共场所使用后者。
然后是针对诸如聊天机器人之类的风险有限的AI的类别。立法将要求这些程序披露您正在与AI对话,以便您可以就是否要继续使用它们做出明智的决定。最后,这里有一个程序部分,对人们的风险最小。该委员会表示,“绝大多数”的人工智能系统将属于这一类。属于本节的程序包括垃圾邮件过滤器之类的东西。在这里,身体不打算强加管制。
内部市场专员蒂埃里·布雷顿(Thierry Breton)在一份声明中说:“人工智能是一种手段,而不是目的。”“今天的提案旨在加强欧洲从实验室到市场的全球AI卓越卓越枢纽地位,确保欧洲AI尊重我们的价值观和规则,并发挥AI在工业领域的潜力。”
欧盟可能需要花费多年的时间来讨论和实施这项法律,该法律可能会导致公司因违反规定而面临高达其全球销售额百分之六的罚款。在GDPR中,欧盟已经制定了世界上最严格的数据隐私政策,并且在内容审核和反托拉斯法方面也正在考虑采取类似措施。
相关推荐
猜你喜欢