有两次我被问到,Pray,Babbage先生,如果你把错误的数字输入机器,那么正确的答案会出来吗? 1864年,计算机先驱查尔斯巴贝奇写道。我无法正确地理解可能引发这样一个问题的那种思想混乱。 因此,垃圾输出,垃圾输出的基本软件原理诞生了。然而,今天,人工智能(AI)已经增加了对Babbages难题的赌注,因为来自AI的垃圾会导致令人震惊的偏见。 特别是AI,机器学习和深度学习都将大数据集作为输入,从这些数据中提取基本教训,并根据它们提供结论。 例如,如果您想使用AI来提供最佳雇用人数的建议,请提供过去成功候选人的算法数据,并将其与当前候选人进行比较并吐出建议。 只是一个问题。如果输入数据是有偏见的,主要由年轻的白人男性组成(我们的垃圾就是这样),那么AI会推荐谁?你猜对了:大多是年轻的白人男性(可以预见,垃圾出来了)。 正如Babbage可能肯定的那样,这里的错误是输入数据,而不是AI算法本身。然而,有更多的偏见而不是坏数据。 Fourkind的机器学习合作伙伴Max Pagels表示,数据本身就是数据。它没有社会偏见,只是一堆数字。需要仔细构建数据集以避免引起社会偏见,但它本身并没有偏见。 AI算法本身是否有偏见也是一个悬而未决的问题。加州大学伯克利分校信息学院副教授Deirdre Mulligan表示,[机器学习算法]尚未针对公平性的任何定义进行优化。它们已经过优化以完成任务。 然而,优化AI算法和构建数据集以避免偏差,是齐头并进的。想象一辆自动驾驶的汽车,当它看到黑人时,它不会识别,微软研究纽约实验室的公平,责任,透明度和道德(FATE)小组的Timnit Gebru博士警告说。这可能会产生可怕的后果。 她指出数据可能不是唯一的问题。 [基于深度学习的决策算法]是我们甚至没有考虑过的事情,因为我们刚刚开始发现最基本的算法中的偏见,Gebru补充道。 不出所料,面部识别软件不正确或不充分地识别有色人种,是争议的避雷针。麻省理工学院媒体实验室的毕业研究员,算法正义联盟的创始人Joy Buolamwini解释说,如果训练集真的不那么多,那么任何偏离既定规范的面孔将更难以发现,这就是我发生的事情。 Code4Rights。训练集不会在任何地方实现。我们实际上可以创建它们。因此,有机会创建反映更丰富的人性肖像的全谱训练集。 以更好的数据战胜偏见 找到AI产生偏差的解决方案的第一步是认识到这是一个问题。 Veritone首席执行官Chad Steelberg表示,我们知道人工智能,机器学习和深度学习可以产生危险的结果,如果不加以推断过时的预测未来就可以预测未来。结果将是对过去的不公正看法的长期存在。任何负责任的AI技术都必须了解这些限制并采取措施来避免这些限制。 IBM是一家投资创建平衡数据集的供应商。人工智能拥有改善我们生活和工作方式的巨大力量,但只有当人工智能系统得到负责任的开发和培训,并产生我们信任的结果时,才能为IBM研究员亚历山德拉·莫伊西洛维奇和约翰·史密斯写信。确保系统接受平衡数据培训,消除偏差对于实现这种信任至关重要。 除了更好的数据集之外,IBM还呼吁提供更好的培训和意识。像人工智能这样的先进创新的力量在于他们能够增强而不是取代人类的决策,莫伊西洛维奇和史密斯继续。因此,使用人工智能(包括视觉识别或视频分析功能)的任何组织都必须培训使用它的团队,以了解偏见,包括隐性和无意识的偏见,监控它,并知道如何解决它。 微软也正在解决这个问题。这是一个真正思考我们在系统中反映出什么价值的机会,以及它们是否是我们希望在我们的系统中反映的价值观,纽约微软研究院高级研究员Hanna Wallach和他的副教授马萨诸塞大学阿默斯特分校信息与计算机科学学院。如果我们正在训练机器学习系统来模仿在偏见社会中做出的决策,使用该社会产生的数据,那么这些系统必然会重现其偏见。 超越面部识别 面部识别是深度学习中最着名的应用之一,在这个领域的偏见可能特别有害,因为它偏向于有色人种。然而,在其他领域,AI偏见可能带来复杂的挑战。 特别是招聘是这些领域之一,因为许多人力资源专业人员希望人工智能减轻候选人选择的负担,这一过程一直受到偏见的困扰。 CorpU创始人兼首席执行官Alan Todd表示,识别高潜力候选人是非常主观的。人们根据无意识的偏见挑选自己喜欢的人。 数据集越来越窄也会导致候选池的多样性变差。 Cornells信息科学部助理教授Solon Barocas解释说,如果您用来训练系统的例子不能包含某些类型的人,那么您开发的模型可能在评估这些人时非常糟糕。 然而,解决AI支持的招聘中的偏见问题比简单地构建更多样化的候选池更困难。 Avrio AI销售和营销总监Jeff Paquette警告说,只要涉及到人类,就永远不会消除偏见。如果你试图减少无意识的偏见,那么招聘过程必须几乎是机器人,主要基于优点如果你只是基于多样性招聘,你的战略已经预先设定了偏见。 从根本上说,招聘的多样性与公平性有关,但在其他情况下,公平并不总是最重要的。例如,微软是否应该将面部识别软件应用于刑事司法和警务等敏感领域?微软研究院技术研究员兼主管Eric Horvitz问道。你告诉我你会担心我的系统偶尔出现一点偏见吗?当你能用X解决问题并挽救许多生命时,不做X的道德是什么? 从技术到社会 问题是,如果警察软件对黑人有偏见,如果它也有助于将谋杀案留在街上,那么它是否可行是人工智能带来的道德问题,但是人工智能和创造它的技术专家都无法做到这一点。自己回答这些问题。 实际上,这些答案取决于整个社会。我们可以开始考虑构建可以通过收集人们的经验来识别偏见的平台,例如我分享的经验,还可以审核现有的软件。 Buolamwini继续说道,我们也可以开始创建更具包容性的训练集。我们也可以开始认真考虑正在开发的技术的社会影响。 对于Buolamwini来说,采取行动来解决人工智能的偏见,她称之为编码的目光,胜于雄辩。她补充说,香港专业教育学院推出了算法正义联盟,任何关心公平的人都可以帮助对抗编码的目光。在[The Coded Gaze网站]上,您可以报告偏见,请求审核,成为测试人员并加入正在进行的对话,