我们为什么不相信算法?
作者: mints 编译 / 3083次阅读 时间: 2021年5月21日
标签: AI 人工智能 算法
www.psychspace.com心理学空间网
为什么很多人都不相信人工智能(AI)的算法,拒绝AI带来的巨大便利?
心理学空间?&S7S)f:L)O1D*F

人工智能(AI)推动了风险感知的信任程度心理学空间|q){$MSk+s%x

`^.Z#WE"]!i;jY$_ o'M:}0算法似乎总是正确的,但现实总是充满了不确定性——投资、开车、做手术、评估工作以及申请大学offer都充满了太多的变化因素。心理学空间|7@ pg%n}.cDO@w0E

G4T!E'yS g0那么,人们是否愿意求助于人工智能,以获得更好的结果呢?近期发表在《心理科学》杂志上的一项研究发现:人们还没有准备好接受人工智能的计算结果。

$yj}.~S1A6}b0心理学空间8M4oo.gu$B9Ps

芝加哥大学的Berkeley J. Dietvorst和Soaham Bharti说:心理学空间3rI!H2yL D({q

心理学空间+s\h"E-ruJ'yU

“这些结果表明,人们不愿意在固有的不确定领域采纳AI算法并不是因为人们在等待技术改进,或者等待更好的算法。“

9v*e Wl$z6S0心理学空间j0fUGS9R2]

”鉴于投资、医疗决策和其他领域天生就存在很多的不确定性,因此人们在这些领域使用人工智能的可能性就更低,哪怕是目前最好的算法。”心理学空间%tw6S'b+|$B9m

$v:BV,|Yx0我们知道,人工智能算法确实优于人类的预测,人工智能使用的工具更先进,遵循的规则更合理,错误率都比人类更低。心理学空间u-k$F F I.l

B7ykS/[ T[5|0研究人员说:“拒绝采用这些(优于人类)的算法会带来更高的成本。例如,很多人都不敢使用自动驾驶技术……尽管研究表明,自动驾驶系统挽救了成千上万人的生命。”

D5B+if#K4Ke+C'Y0

4XsBQVk0
+n.?7H#mt,X tM0@hIf0心理学空间J:~)aM+c ba

心理学空间+t4sR$}M9w


B,TRO,B,Rk0心理学空间 a\"U2v[2Ddv

b3[:l#p#m*JOZ0拒绝人工智能是因为他几乎不犯错

%u` x\0s0H0心理学空间O x6]D?6l6Cr

那么,是什么阻止了人们对人工智能的接纳程度,反而偏爱人类自己的技能和本能?

#i5pSG3Tt0

Go!T3ZSMN$F(q0研究人员认为,这其中的原因在于我们相信自己会对不确定的决定承担更多风险,我们不相信计算机会为我们承担这种风险。因为人工智能一旦犯错,他们的错误就更加的显眼,哪怕人工智能犯错的情况非常罕见。

\7\QBF+yn#A@0

a}5|X i0Dietvorst和Bharti在谈及相关的决策风险时说:

0W e {#aA @0心理学空间#P7l K.EL

“我们建议人们逐渐降低预测误差的敏感性,即,渐渐不再挑剔预测的准确性,并且接受一定程度的误差。这会让人们偏爱那些近乎完美的方案(即,一个几乎没有错误的方法)。”

$T0p+Xd.I W"}7w0心理学空间$@zK6Q&Sx$B6K

“与之相反,当人们觉得算法不可能产生近乎完美的答案时,他们往往会选择风险更高、往往表现较差的决策方法(如人类判断)。”心理学空间O%\)ca-?!j,xp _

wW8M Qk4i[I"[~0研究人员通过9项实验发现:“人们觉得近乎完美的预测(可能产生的最好的预测,几乎没有误差)之间存在的主观差异更大,而误差较大的预测之间的主观差异却相对较小。”

*r D(i@8GMPLV(y)}0心理学空间 [~;b5r.[X7z

也就是说,预测越是精确,人们越是需要更高的准确度;当误差较大时,反而会更能够马马虎虎的接受。

/b4{IKw K"C0心理学空间Q6]&ghH2HuI

研究结果显示,人们不太可能在难以预测的(随机或方程)领域中选择最佳的决策者,相反,他们自认为的近乎完美选择更可能来自于自己的喜好,而且选择结果有很大的差异。最终导致了人们在不确定的领域中选择那些风险更大、结果较差的决策者(例如人为判断)的倾向。

~Vhp-UT0

%]:NG&|_ wie0研究人员总结说:“这些结果表明,说服人们在固有的不确定领域使用算法。并非意味着拿出更好的技术或出现更好的算法。”

-Oj,hE%Bj$MQ;TY0心理学空间4Q*Sl*~n.}R

这种拒绝人工智能的行为会带来巨大的影响,因为如果人们不愿意通过人工智能预测不确定性的话,这些领域就无法利用技术进步获得更多的收益。”

m``F A0

w(x\8b_h%u6]r0
^8UW#}(d%jv0

P BU LVt(m7j0心理学空间7X(Q.V]*d ^o%{

机器有道德吗?

D'I!E^#a4A9J,l0心理学空间CnY`|2p)F? z

最近的另一篇文章探讨了无人驾驶的困境。

+uz\7yT?,H#|m`0心理学空间5n+e-_$R pki&W^Mj

在这种困境中,自动驾驶的车辆必须在道路上做出高风险的道德决定,例如,应该伤害谁、拯救谁(例如行人或乘客)。

j;_] H9c+P"a9d-w0心理学空间N*x+Y!rzE

Julian De Freitas等人认为,这些担忧会扰乱工程和政策决策。

T-is+I_p6N}a0心理学空间zcI[t6z"rTL

他说:”我们教人类如何开车时,不会让驾驶员被迫进行选择——不会告诉他应该杀了谁。这是因为计划一个不可能、无法察觉和无法控制的情况会扰乱我们训练新司机的目标——尽量减少伤害任何人。”心理学空间7rqvY*W0r+W%E*q

w%O3Z-H0h/Q0研究人员说,这样的目标同样适用于自动驾驶系统。

1q3~.T_QjG0www.psychspace.com心理学空间网
TAG: AI 人工智能 算法
«在网络上做真实的自己会更幸福 社会心理评论
《社会心理评论》
相对剥夺理论»