PNAS:使用AI会遭到社会歧视?

论文题目:《Evidence of a social evaluation penalty for using AI》
发表期刊: PNAS, 2025, Vol. 122
作者背景: Jessica A. Reif, Richard P. Larrick, and Jack B. Soll (均来自杜克大学福库商学院)
随着AI工具在工作场所的普及,一个有趣的困境出现了:一方面,AI能够显著提升个人生产力;另一方面,许多职场人却在悄悄使用甚至隐藏自己使用AI的事实,担心被同事和领导看作是“懒惰”或“能力不足”。这种现象背后是经典的归因理论(attribution theory):当人们借助外力完成任务时,观察者倾向于将其归因于个人内在特质(如能力、动机不足),而非情境因素。
本文通过四个环环相扣的实验,系统地检验了这种“AI使用惩罚”是否真实存在,以及其背后的作用机制和边界条件。
研究问题
主观预期: 员工是否预期自己会因使用AI而受到负面评价?
客观现实: 观察者是否真的会对使用AI的员工给予更低的评价?
这种负面评价是否会影响现实的商业决策,例如员工招聘?
这种“AI使用惩罚”背后的心理机制是什么?如何缓解?
研究内容
文章通过四个预注册的在线实验,对总计4,439名参与者进行了研究,层层递进地验证了核心假设。
1. 实验1:主观预期
设计: 将被试随机分为两组,想象自己在工作中使用生成式AI工具或非AI工具。
测量: 评估他们预期的他人对自己能力、勤奋、懒惰程度的看法,以及向同事和上级报告使用该工具的意愿。
2. 实验2:真实的惩罚
设计: 让被试作为评估者,阅读一段关于某员工的描述。该员工被描述为接受了“AI辅助”、“非AI辅助”(如同事帮助)或“无辅助”(控制组)。
测量: 评估者对该员工的懒惰、能力、勤奋等维度进行打分。
3. 实验3:招聘的惩罚
- 设计: 采用激励相容的两阶段招聘任务。首先招募一批“求职者”完成任务并报告其日常AI使用频率。然后招募另一批“管理者”,让他们审阅真实求职者的简历(AI使用频率为“每天使用”或“从不使用”),并决定是否雇佣。管理者的奖金与所雇佣员工的真实任务表现挂钩。
4. 实验4:机制与边界
设计: 让评估者对一位求职者进行打分。该求职者申请的工作任务被随机设定为“手动任务”或“数字任务”。
测量: 评估者对该员工的懒惰、能力、勤奋等维度进行打分。
研究结论
1.“AI使用惩罚”真实存在
- 员工普遍担心因使用AI被负面看待,并且这种担心是有根据的。与使用非AI工具或不使用辅助工具的员工相比,使用AI的员工确实被评价为更懒惰、能力更弱、更不勤奋。
2. 惩罚影响实际决策
- 在招聘场景中,本身不使用AI的管理者更倾向于拒绝使用AI的求职者。反之,频繁使用AI的管理者则更偏爱同样使用AI的求职者,表现出“圈内偏好”。
3. 核心机制是“懒惰”归因
- 对AI使用者能力等方面的负面评价,主要是通过“认为他们懒惰”这一认知中介的。
4. 惩罚可以被消除
任务情境: 当工作任务明确适合使用AI时(如撰写邮件),AI使用者不仅不会被惩罚,甚至被认为更适合该岗位。
评估者自身经验: 对于那些自己也频繁使用AI的评估者来说,他们并不会认为使用AI的求职者更懒惰。
总结
这篇文章揭示了一个关于AI应用的深刻悖论:一个旨在提高效率的工具,却可能损害使用者的职业声誉,从而构成一种隐性的“社会成本”。
随着AI变得日益普及,越来越多的人成为使用者,以及组织对AI使用的规范和文化逐渐形成,这种因“认知陌生”而产生的污名化或许会自然消退。对于管理者而言,明确AI在特定任务中的价值和合理性,是消除员工“使用恐惧”的关键。