Synth Daily

他连工作面试都拿不到。是人工智能惹的祸吗?

一名医学生在申请住院医师时屡遭拒绝,怀疑是AI招聘系统因其病假记录而歧视他。他花了六个月时间,利用编程和逆向分析来调查算法,试图证明自己的猜测。尽管他最终成功匹配到顶尖项目,但调查显示,相关AI平台并未像他担心的那样对申请人进行评分或排序。这一经历揭示了更深层的问题:在招聘中,AI的不透明性、潜在错误以及缺乏有效的申诉机制,给求职者带来了巨大的焦虑和无力感。

一份完美的申请,却屡遭拒绝

查德·马基(Chad Markey)是一名常春藤盟校的医学生,他的申请材料堪称完美。

  • 优秀的成绩和在顶级医学期刊上发表的文章。
  • 感人至深的个人陈述和充满赞誉的推荐信。
  • 他甚至被一位教授评价为“从未见过比查德更有技巧、更有才华、更适合从医的医学生”。

尽管如此,他收到的不是面试邀请,而是一封封的拒绝信。当同学们纷纷收到面试通知时,马基却一无所获。这让他感到事情不对劲,并开始怀疑问题并非出在自己身上。

AI成为头号嫌疑

马基开始仔细检查自己的申请材料,寻找可能存在的“致命缺陷”。他的目光锁定在“学生表现评估”中的一段描述上。文件中提到,他因“个人原因”曾“自愿”休学三次,共计约22个月。

但事实并非如此。马基患有一种自身免疫性疾病,休学是迫不得已的医疗需要。他担心,AI筛选工具可能会将“自愿”和“个人原因”这些词语解读为他无法承受学业压力的表现,从而自动降低他的申请评级。

“我从一个他妈的黑洞里爬了出来,”他在谈到自己的诊断时说。“我已经走了这么远,结果却发生这种事?”

他开始问自己一个困扰着无数求职者的问题:是AI刷掉了我的申请吗?

招聘行业本身似乎也承认了这种担忧的合理性。人力资源部门抱怨AI生成的求职申请泛滥,因此需要更多的AI过滤器来应对。而求职者则抱怨自己被不公平地过滤掉。这形成了一个恶性循环,有人称之为“AI末日循环”。

一场耗时六个月的个人战争

带着一种“白热化的不公正感”,马基决定亲自调查。在接下来的六个月里,他全身心投入到编码和研究中,试图揭开AI筛选的黑箱。

他采取了多种方法来验证自己的猜想:

  • 情绪分析: 使用开源工具分析描述他休假经历的不同措辞,发现“医疗状况”比“个人原因”获得了更积极的情绪评分。
  • 建立模型: 他用Python创建了一个包含6000名虚拟申请人的数据集。模型结果显示,拥有“医学上准确”休假描述的申请人,被选中的可能性要高出66%。
  • 逆向工程: 他找到一份相关的AI招聘系统专利,并尝试用代码复现其工作原理。他的模型再次显示,措辞的微小改变会导致评分的显著差异。

马基的调查似乎证明,一个算法完全有可能因为他档案中的特定措辞而歧视他。

事实的另一面

就在马基深陷调查时,转机出现了。他将自己最新发表的论文信息通过电子邮件直接发送给了几个他最想去的项目。

结果立竿见影。他很快就收到了面试邀请,最终成功匹配到了哥伦比亚大学的精神科住院医师项目。这似乎印证了他的想法:AI系统屏蔽了他的申请,直到人工干预才让他重见天日。

然而,当他根据法律要求相关公司提供其个人数据时,得到的回应却出乎意料。

  • 没有评分或排名: Thalamus公司明确表示,其AI工具Cortex并未使用AI对申请人进行排序、筛选、排除或评分
  • 功能有限: 该工具的AI功能主要用于标准化不同学校的成绩,以及标记对学术研究感兴趣的申请人。
  • 专利无关: 马基花费数月研究和逆向工程的专利,实际上并未应用于他那一届的申请流程中。

其他医院的反馈也证实了这一点。一些项目试用了该工具,但发现“AI信息不太可靠”,最终还是依赖人工筛选。

真正的问题:不透明与无助感

马基的经历最终成了一个悖论:他怀疑自己被AI歧视,并用极为复杂的方式去证明,但结果显示AI并未像他想象中那样运作。

然而,这并不能说明他的努力是徒劳的。整个事件暴露了当前AI在招聘应用中的核心困境:

  • 极度不透明: 即使是专业的审计公司也承认,要理解一个大型语言模型为何做出某个特定决定几乎是不可能的。
  • 缺乏申诉机制: 与有明确法规(如《公平信用报告法》)约束的背景调查不同,被AI招聘工具拒绝的求职者几乎没有追索权。他们无从知晓自己被拒绝的原因,更无法对可能存在的错误或偏见提出质疑。

最终,马基的故事说明,我们不应该要求每个求职者都成为一个懂编程、懂数据分析的专家,才能在一个不透明的系统中为自己争取公平。真正需要的,是为这些强大的AI工具建立起有效的监管和问责机制。