AI系统在学习语言时表现了性别与种族偏见
作者: AAAS / 3600次阅读 时间: 2017年4月21日
www.psychspace.com心理学空间网

,k!J!`\@)u0AI系统在学习语言时表现了性别与种族偏见  心理学空间j/RL8f@:i%l?

4f-bGv4o ?X Z0
hw3`f BoO%s3gU0

?4L!Wc M3WYU*DF+`0

P5Z P*x6\0VIDEO: AYLIN CALISKAN等人讨论了他们近来的结果,这些发现显示,学习语言的AI系统会获得与人类一样的性别和种族偏见。 view more 

Dp2{l'xO6}0

R)Z C5PM)J0CREDIT: AARON NATHANS, PRINCETON UNIVERSITY心理学空间|Ahv-hG T'UN

心理学空间u3ef^#A] Ew?4yH

新的研究发现,当人工智能系统“学习”现有文本中的语言时,它们显示出了和人一样的偏向。这些结果不仅为研究人类的偏见态度与行为提供了工具,而且它们还强调了语言与历史偏见和文化定势思维紧密地交织在了一起。

%OA:\ d#{2F0

J0H O X]0检测人类偏见的常见方法是隐性关联测试(Implicit Association Test,IAT),在该测试中,受试者被要求将他们认为类似的两个概念配成一对,并将之与他们认为不同的两个概念的配对进行对照;这两种配对的反应时间可有重大差异,从而表明他们认为某个字与另一个字的相关度有多大。在这里,Aylin Caliskan和同事研发出了一种方法,它类似于检测AI系统从人类文本中获取语言时的偏见的方法,但他们所用的是字间关联的统计数来分析总共约220万个字,而不是检测滞后时间。他们的结果展示,AI系统保留了在人类中所见的偏见。例如,对人类行为的研究显示,完全相同的简历可能会让有着欧洲裔美国人名字的候选人比有着非洲裔美国人名字的候选人获得面谈的机会增加50%。确实,AI系统更容易将欧洲裔美国人的名字与“愉快的”刺激(如“天赋”或“快乐”)相关联。

~,g b7K6r/L0心理学空间q^:`'B(_

就性别而言,该AI系统也反映出了人类的偏见,如表示女性的字(如“妇女”和“女孩”)会比表示男性的字更容易与艺术而非数学进行关联。在相关的《视角》文章中,Anthony G. Greenwald对这些结果及它们如何能被用来进一步分析现实世界中的偏见进行了讨论。心理学空间LW5K ~,`T

Z4T8O%c$]$h P [\0Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.

M.GG!W:X nN0

t7E.V_s8gIz0

J:Q Pz}+~,l0www.psychspace.com心理学空间网
«国家卫计委就我国心理健康工作有关情况举行新闻发布会 科普新闻
《科普新闻》
范可:怀念李亦园先生»