信息化 频道

居安思危!人工智能已经学会了性别歧视

  【IT168 评论】人工智能的火爆简直要冲破宇宙了,不仅各大IT巨头押宝人工智能,就连综艺节目也没有放过这一风口。芒果台自制的明星推理综艺秀《明星大侦探》也采用了人工智能主题,录制了《2046》。这期节目除了剧本精彩、推理烧脑之外,其表达出的“人类创造了机器人却反被其利用甚至杀害”主题,也发人深省。

  大多数的企业和科学家都希望人工智能快速发展,且无限接近人类的思考方式。但在这其中他们忘记了人类除了正常的三观之外,还有很多不正的想法。最近,一项研究表明AI系统(如Google翻译)已经获得与人类相同的文化偏见,这足以引起人们的重视。

  这份来自普林斯顿大学的研究被刊登在美国《科学》周刊上,普林斯顿分校计算机科学助理教授Arvind Narayanan向CITP介绍了本研究的理由:

  “机器学习中的公平和偏见问题对于社会来说是非常重要的,因为这些人工智能系统可能会永久存在着社会上不接受的历史模式以及我们正在试图摆脱的偏见。”

  隐性关联测试是用来研究人类偏见的工具,测试被测试者对于屏幕上字的关联词的响应时间,测试结果显示对于关联词的响应时间要远小于非关联词。

  普林斯顿大学的研究人员开发了一种类似的方法来测量从人类文本中获取语言的AI系统中的偏差,重点关注一种名为“单词嵌入”机器学习工具,利用词之间的关联关系,总共分析了大约220万个词。此次研究他们选择了斯坦福大学研究人员开发的GloVe,这是目前根据上下文提取单词意思非常先进的方法,也就是通过这些单词意思和其他单词在文本中出现的频率来进行判断。根据GloVe和相关方法,在相似的文章中两个单词出现的频率越高,他们关联性越高。比如,如果“女人”这个词经常和与家庭有关的词一起出现,那么“女人”这个概念就和“家庭”关联性非常高。

  AAS发布了这个视频,Aylin Caliskan,Joanna Bryson和Arvind Narayanan解释了他们的方法和研究结果,揭示了AI系统中的种族和性别偏见。

  在视频中,Aylin Caliskan解释说,女性名字通常与家庭相关,而男性名称与职业相关联,并展示了Google翻译在对土耳其语翻译时就沿用了这一性别陈规观念,性别代词有三个分别是He、She、It。在谷歌翻译中出现了下图的情况:

居安思危!人工智能已经学会了性别歧视

  Joanna Bryson指出人工智能对于女性职业偏见的学习和女性在社会中所扮演的角色相比,甚至比美国劳工统计局更准确地预测了职业类型中女性的实际比例,并以散点图的形式表现出来:

居安思危!人工智能已经学会了性别歧视

  Bryson在接受采访中曾表示:“很多人说AI是存在偏见的,其实这种说法是不准确的,更准确的说法是,人类是有偏见的,而AI学习到了这种偏见,并且有加深现有偏见的趋势,因为算法和人类不同,无法自动抵消学习到的偏见。”

  “如果一个AI系统中没有被明确的部分是由道德观念来驱动的,那么将是一件非常危险的事情。”Nature杂志的一篇文章再次重申了这一观点,并提出了一些建议:

  如果用于简历筛选的机器学习技术吸收了文化定型观念,那么势必会导致偏见的出现,在机器学习的新兴领域出现了一种新的方法,那么可能会导致偏见的结果。我们建议通过明确表征可接受的行为来解决这个问题。在机器学习的公平的新生领域中可以看到一种这样的方法,它规定和执行决策中不歧视的数学公式。可以在模块化AI体系结构(例如认知系统)中找到另一种方法,其中统计规律的隐式学习可以被划分,并通过适当行为规则的明确指导来增加。当然,必须谨慎使用通过无监督的机器学习构建的模块到决策系统中。

  所以尽管可能有些情况下无人监督的学习可以揭示有趣和有洞察力的结果,机器学习在社会上放松,但是需要将其监督到应用可接受的规范,而不仅仅是现有的规范。

0
相关文章