近期,一些 LinkedIn 女性用户通过在个人资料中将性别改为男性,发现帖子的曝光量和互动率大幅增加,由此引发了对平台算法可能存在性别偏见的质疑。尽管 LinkedIn 官方否认在内容推荐中使用性别等个人信息,但专家指出,算法可能存在隐性偏见——它可能因为训练数据和用户行为的影响,无意中低估了女性普遍采用的沟通风格。最终,由于算法的不透明,用户和专家都难以确定互动率变化的真正原因,凸显了平台透明度的缺失问题。
一个引发争议的实验
一项名为 #WearthePants 的非正式实验在 LinkedIn 上展开,女性用户通过修改个人资料来测试平台的算法是否存在偏见。此前,许多用户抱怨在平台更新算法后,帖子的曝光度和互动率都出现了下降。
- 姓名与性别的影响: 一位拥有超过 10,000 名粉丝的产品策略师将自己的性别和名字改为男性后,发现帖子的数据与她粉丝数远少于她的丈夫相当,她认为“唯一重要的变量就是性别”。
- 曝光量激增: 另一位用户 Marilynn Joyner 将个人资料性别改为男性后,她的帖子曝光量在一天之内跃升了 238%。许多其他女性用户也报告了类似的结果。
- 写作风格的调整: 有用户在扮演男性角色的一周里,刻意调整了写作风格,使其“更简单、更直接”。结果,帖子的曝光量增加了 200%,互动率增加了 27%。
她得出的结论是,系统并非“明确的性别歧视”,但似乎将通常与女性相关的沟通风格视为“价值较低的代表”。
官方回应与专家分析
面对质疑,LinkedIn 官方明确表示,其算法和人工智能系统不会使用年龄、种族或性别等人口统计信息作为影响内容可见度的信号。然而,算法专家认为,问题可能比这更复杂。
- 显性偏见 vs. 隐性偏见: 专家们普遍认为,这可能不是显性的性别歧视,但隐性偏见可能在起作用。
- 算法的复杂性: 算法是一个复杂的系统,它会同时、持续地调动数学和社交杠杆。更改个人资料只是其中一个杠杆,用户的互动历史、网络关系等都是重要因素。
- 训练数据的影响: 许多大型语言模型(LLM)在训练时,其数据源自人类创造的内容,因此天生就可能嵌入了“以白人男性为中心的西方视角”。如果模型被训练去推广符合男性刻板印象(如简洁、直接)的写作风格,而贬低被认为是女性化(如柔和、情绪化)的风格,这就构成了隐性偏见。
布兰迪斯·马歇尔,一位数据伦理顾问表示:“这是一个比人们想象的更复杂的问题。”
算法更新后的普遍困惑
事实上,对新算法感到不满或困惑的用户遍布各种性别。
- 曝光量下降: 许多长期活跃的内容创作者,无论男女,都发现自己的帖子曝光量大幅下降,这让他们感到“非常沮丧”。
- 有人受益: 与此同时,另一些用户则从新算法中受益。一位男性用户表示,他的帖子曝光率和触及范围在过去几个月增长了超过 100%,他认为“这是因为我为特定受众撰写特定主题的内容,这正是新算法所奖励的。”
- LinkedIn 的建议: 平台方表示,随着用户基数和发帖量的增长(发帖量同比增长 15%),信息流中的竞争更加激烈。关于专业见解、职业教训、行业新闻分析等内容表现良好。
核心问题:透明度的缺失
尽管存在各种猜测和证据,但问题的核心在于算法本身是一个“黑箱”。
算法可能会放大“任何已经存在的信号”。它可能奖励某些帖子,不是因为作者的人口统计特征,而是因为这类内容在整个平台上有更多的历史响应记录。
用户渴望平台能提供透明度,解释其内容推荐的运作方式。然而,由于内容推荐算法是公司的核心商业机密,并且透明化可能导致系统被恶意操纵,因此这种要求不太可能得到满足。最终,用户只能在困惑中继续适应这个不断变化的系统。