来源:[db:来源] 时间:2022-11-17 10:31:42
原标题:以下是我们如何保护自己不受影响我们生活的隐藏算法的影
在政治方面,2016年是充满不确定性的一年。然而,它也见证了算法的日益主导地位,复杂的数学计算遵循预先设定的模式,并越来越多地应用于旨在预测、控制和改变人类行为的技术中。
算法试图用过去作为未来的指示器。因此,它们是中性的。他们没有偏见,没有感情。但是算法可以被编程成有偏差的,或者无意的偏差可以潜入系统。它们还允许大公司在对待消费者和员工方面做出很大程度上隐藏的决定。它们还允许政府组织决定如何分配服务甚至司法。
算法被不公平甚至非法使用的危险,导致英国工党(Labour party)最近呼吁,不仅要加强对科技公司的监管,还要加强对算法本身的监管。但更严格的算法规则实际上包括哪些内容呢?监管如此复杂的技术领域有可能吗?
政府和企业都使用算法来尝试和预测未来,并为决策提供信息。例如,谷歌使用算法来自动填充搜索框,当你在里面输入内容时自动填充,当你点击“返回”按钮后,它会对列出的网站进行排名,将你引导到特定的网站。自动驾驶汽车使用算法来决定路线和速度,甚至可能决定在紧急情况下从谁身上碾过。
金融公司使用算法来评估你的风险状况,以决定他们是否应该给你贷款、信用卡或保险。如果你有幸得到他们的产品,他们会计算出你应该为那个产品付多少钱。雇主们也会这样做,以选择最适合这份工作的候选人,并评估他们员工的生产力和能力。
甚至世界各地的政府也在成为算法的大采纳者。预测性警务算法允许警察将有限的资源集中在罪热点地区。边境安全官员使用算法来确定谁应该被列入禁飞名单。法官们很快就可以使用算法来确定罪犯的再犯风险,并选择最合适的判决。
考虑到算法现在对我们生活的广泛影响,政客们想要加强对算法的控制也就不足为奇了。但算法通常具有商业敏感性,而且利润丰厚。企业和政府机构将希望对它们的算法如何工作的具体条款保密。他们可能受到知识产权的保护,如专利和保密协议。因此,调节实际算法本身的能力将非常难以实现。
算法的这种隐蔽性本身可能就是监管的有效来源。该法律可能会被修改,以迫使所有公司和政府机构更广泛地宣传这样一个事实,即该组织的决策将以一种算法的方式进行。但这种方法只会有助于提高透明度。它对规范实际的算法过程毫无作用。因此,对规则的关注需要转向算法的输入和输出。
在英国,现行的司法审查法将足以涵盖政府机构向算法中输入数据的情况。司法审查使法官能够评估公共机构所作决定的合法性。这样法官就可以判断输入到算法中的数据是否正确、相关、合理。公共机构根据算法给出的输出作出的最终决定也将受到司法审查,审查的问题是最终决定是否适当、合法和合理。
对于私营企业来说,情况更加复杂。监管的需要根据对个人的潜在影响而有所不同。选择你可能想要欣赏的音乐、视频和电视节目的算法几乎不需要任何规则。但如果公司根据你的收入等级、职位或社会地位来提高价格或拒绝你的服务,那么监管的必要性就会迫切得多。
政客们授权监管者实时对不断变化的算法进行微观管理是行不通的。相反,企业必须能够按照自己认为合适的方式使用自己的算法,并在事件发生后对自己的不当行为承担责任。
数据保护
所有这些场景都使用了个人数据,所以解决算法问题的最简单方法就是通过数据保护法。英国现行法律规定,如果自动决策对人们产生重大影响,他们有权反对自动决策。因此,人们可以特别要求对自动拒绝决策进行审查并由人工操作员重新运行。在涉及个性化定价的情况下,可以使用现有的消费者保护法和竞争法来控制企业使用算法的行为。
然而,公众普遍不知道这些控制公司活动的法律方法。更多的知识和意识将赋予公民和消费者同样的权力。
随着技术的发展,算法只会成为我们生活中更重要的一部分。如果我们提高了普遍的透明度和公众对无处不在的算法的认识,这个未来将是光明的。公司和政府将别无选择,只能改进他们的软件。即使是在数据保护、消费者保护和竞争法下更容易使用的上诉程序也会有所帮助。
但是,一个新的、包罗万有的超级监管机构将成本过高、操作不便、影响有限。在后真相世界,政客们应该极其警惕过度承诺和兑现不足。
相关推荐
猜你喜欢