为什么人工智能具有种族和性别歧视?

为什么人工智能具有种族和性别歧视?

  人工智能正渗透到我们日常生活的方方面面:应用程序可以拼搏在线彩票网帮你整理手机图片,管理电子邮件,并将任何语言的文本翻译成另一种语言。谷歌、脸书、苹果和微软都在研究如何将人工智能融入于他们的主要服务之中。很快,人们可能在每次接电话的时候都要与人工智能(或是其输出设备)进行互动了。

  

  资料图

  你应该信任它吗?

  答案并不总是肯定的。人工智能可以比人类更快、更准确地分析数据,但它也可以继承我们所具有的偏见。它需要大量的数据以进行学习,而最简单的方法就是从互联网上获取信息。但互联网包含了一些极具偏见性的语言。斯坦福大学的一项研究发现,经由网络培训的人工智能会将“爱”等正面词汇与典型的白人姓名相联系,而黑人姓名则会被与“失败”和“癌症”等负面词汇相联系。

  Luminoso公司的首席科学官RobSpeer负责管理开源数据集ConceptNetNumberbatch,该数据集被用作人工智能系统的知识基础。他测试了Numberbatch的一个数据源,发现在词汇关联上存在的明显问题:当向系统灌输“男人之于女人,就像店主之于()”这样的类比时,系统提供的答案是“家庭主妇”。相似地,它还会将女性同缝纫和化妆品相关联。虽然这些联想可能适合与某些应用程序,但它也会给常见的人工智能任务中造成问题,比如评估求职者。

拼搏在线

  人工智无法分辨哪些联想是有问题的,所以当把一份相同内容的女性简历排在男性简历之后时,它不会发现其中存在的问题。同样,当Speer试图编出一种餐馆评价的算法时,该算法对墨西哥食物的评价较低,因为它已经学会了把与“墨西哥”有关的事物与“非法”等负面词汇联系在一起。

  因此,Speer开始介入并试图矫正ConceptNet存在的偏见。他发现了那些不恰当的语义关联,并将其数值调整为零,同时让系统继续保持那些恰当的关联,比如“男人-叔叔”和“女人-阿姨”等。他对与种族、民族和宗教相关的词汇也做了同样的处理。

  解铃还须系铃人

  Speer在一封邮件里说:“Numberbatch只是一个配置了消除偏见功能的语义数据库”。他对这种竞争优势感到欣喜,但他希望其他方面的知识库也能遵循这一趋势:这是人工智能技术在短期内所面临的威胁。

  机器人接管这个世界已经不再只是科幻小说里的场景。由人工智能服务可能做出不会被人类所理解的决策,而这些决策可能会伤害到某些群体。Speer说:“人工智能应该具备可以更好区分真实和炒作的能力。过度夸大人工智能的能力很容易,因为大多数人还不具备真正可以真正理解它的相关知识,这就反而也打消了人们对它合理的怀疑。这种偏见最令人担心的地方是它会在无形之中影响到人工智能。”

  根据Speer的说法,“有些人终其一生都不知道为什么他们得到的机会、工作Offer更少,而与警察或运输安全管理局打交道的次数却比别人多。”他指出,种族主义和性别歧视被融入于社会的方方面面。那些有前景的新技术,有时即使初衷是为了减少这种偏见,也经常会无形地放大它们。

  “不存在基于主观数据而建立的客观工具。因此,人工智能开发人员承担着巨大的责任,他们需要要找出人工智能的缺陷并解决它们。人工智能的工作原理跟人脑不同,”他说。为了反驳这种对于AI的夸大,我希望我们能停止谈论大脑而开始想一想真实发生的事情:这主要是关于数据统计、数据库和模式识别的。而这些也并非会使话题变得无聊。