技术

减少人工智能系统中的偏差

人工智能(AI)工具已经进入营销领域,人力资源领域也不例外。人工智能有时被认为是一种没有偏见的工具。毕竟,计算机处理的是纯信息。问题是,这些系统装载着人类信息,当然,这些信息往往充满了无意的偏见。

来源:vs148 / shutterstock

我想把这个问题应用到一个特定的人工智能工具上,探索偏见是如何渗透进来的,如何识别它,以及最终如何纠正它。这里提到的人工智能是索菲亚,意思是智慧。这是个人福利助理,由businessolver.最近,我与该公司的应用数据科学团队负责人、索菲亚的创造者Sony SungChu聊了聊人工智能的总体情况、索菲亚的局限性和力量,以及他的团队如何处理偏见。

新生空间

宋初认为,人工智能领域才刚刚起步,还有很多挑战需要克服。首先,像宋楚这样的人必须从头开始指导人工智能学习。这需要为人工智能的学习创造严格的条件和边界。此外,特别是在人力资源领域,他们必须保护敏感话题(私人健康信息,性骚扰记录等)。

这也是偏见进入对话的地方。例如,如果雇佣人工智能,出于某种机器人的原因,决定只雇佣来自特定社会经济阶层的人,那么该公司除了疏远优质人才,失去思想的多样性之外,还可能面临诉讼。“所以作为一个社区,我们仍在努力改善这些保障措施,”SungChu说。

教人工智能就像教孩子

宋楚将教人工智能比作教孩子。毕竟,智能软件是通过在大量数据的基础上建立连接来学习的。他说:“当你教一个人类孩子的时候,你会让他们接触到不同的思想。让他们体验一下这个世界;他们会在你的指导下或没有你的指导下接受想法,对吧?然后它们综合这些信息,这样它们就能得到思考的线索。”

AI教学也非常相似,偏见的问题也立刻变得清晰起来。在Sofia的原型阶段,SungChu的团队给它输入了名单。无意中,这份名单上大多是西方人的名字。他解释说,当他们开始添加“更多的东方名字,如Anush或Asoni”时,“它真的很挣扎”。一半的挑战在于,你给人工智能提供的数据是否公正。

挑战的另一半与人工智能的严重局限性有关。

“我们倾向于认为人工智能很聪明,但从大局来看,它们真的很愚蠢。”他举了一个例子,当一个孩子学习猫是什么时,他或她可以看着猫的任何表现形式,仍然知道它是猫。但如果你告诉人工智能猫是什么,然后给它看加菲猫或汤姆的照片猫和老鼠在美国,它很可能会出错。在这个阶段,它远远落后于人类的智力。

喂给AI什么对避免偏见真的很重要

正如我们提到的,最初的偏见通常来自于数据。为了解决这个问题,sunchu在AI的数据集上设置了边界条件。他解释说,这是为了“确保数据尽可能干净、公正、完全多样化。”

偏差不仅存在于输入的数据中,也可能因向AI输入数据的人太少而引入。在人力资源领域,我们谈论思想的多样性:一个由不同个体组成的团队将通过他们集体思想的多样性带来更多的创新。

在早期,当他教索菲亚的时候,他是唯一的信息提供者,他遇到了一个问题。他说,“我给她看了信息;我做了预处理和所有的事情。我很快发现这不是正确的方法,因为你是一个人,你不会通过看不同的角度来否定你自己的信念。你是固定的,或者说你坚持自己的信仰。因此,从第三方或第三人称的角度看待这种情况是非常困难的。”

结果向宋楚表明,需要一种不同的方法。他问自己:“你能通过对索菲亚数据集的众包评估来排除偏见吗?我们成立了一个更大的团队,让更多的人来研究,我们还让客户服务代表来研究;与我们合作的主要公司都在研究这个问题。我们开始得到很多更好的反馈,关于我们有哪些方面可以改进Sofia。”

如果像宋楚这样的创新者不采取这些重要步骤,就很容易看到偏见是如何进入人工智能系统的,即使是这些创新者声称没有偏见的系统。如果你正在购买或使用人工智能系统作为人力资源系统的一部分,你有必要询问创建者的偏见。

发现错误

当一架飞机坠毁时,调查人员寻找“黑匣子”。宋初坚持认为,大多数人工智能都没有黑匣子。当许多人工智能程序做出决定时,这是一个复杂的系统;当你把东西放进去,你就会得到一些东西。人们并没有很好地理解它;模型中没有知识表示说,嘿,这就是人工智能如何做出这个决定的。”

宋楚认为,让他的团队了解索菲亚是如何做出决定的很重要,所以她被设计成一个类似黑盒的角色。他能够做到这一点。解决方案与他们强加给AI的一些限制以及输入和结果之间的关系有关。他们可以使用这些信息来跟踪人工智能的反应方式,这可以帮助他们缩小错误范围。

当人工智能犯错时会发生什么

当人工智能确实犯错时,后果可能是毁灭性的。2016年,微软推出了一款新的人工智能聊天机器人,在一天内,它从有趣变成了主张毁灭女权主义者和犹太人.另一个人工智能控制的机器人在SXSW上展示时,她同意,事实上,摧毁人类

然而,我们应该记住,如果人工智能像一个孩子,它也一定会像孩子一样犯错误。当像索菲亚这样的人工智能面对客户时,情况可能会很尴尬。宋楚认为,在这些尴尬时刻采取一种理解的方式是很重要的。“所以我们对用户非常透明,我们试图尽可能多地解释人工智能的工作原理。有时候,这很容易解释,有时候,就不那么容易解释了。”

在人工智能可能表达偏见的情况下,“我们确实试图让我们检测一些偏见所需的时间尽可能短。希望在检测到偏差后的一天左右,我们可以纠正这种情况。所以我们一直在监控基本用户和索菲亚之间的所有交流。”