人工智能(AI)的发展既加剧了社交媒体上的对立,也为促进更具建设性的对话提供了可能。杜克大学社会学家克里斯托弗·贝尔的研究表明,利用AI辅助的冲突调解语言,可以有效减少网络上的不当言论,并提升人们进行跨意识形态交流的意愿和质量。除了改善线上沟通,AI还能帮助人们练习处理现实生活中的棘手对话,甚至加速群体达成共识。尽管存在被恶意利用的风险,但关键在于科技领导者必须为AI设定明确的目标,即推动社会实现更有效的沟通与理解。
社交媒体:为争论而生的平台
当前社交媒体的设计机制,天然地助长了冲突而非理解。对大多数用户而言,其主要目标并非学习或保持谦逊,而是提升个人地位或在争论中获胜。
- 算法的“功劳”: 极端内容更容易引发评论和互动,即使是负面评论。因此,算法会将其推到信息流的顶端,进一步放大分歧。
- 观众效应: 线上交流就像一场表演,总有观众在场。这使得对话变成了“有输有赢”的战斗,而非观点的交流。
对大多数用户来说,社交媒体的目标是提高地位或赢得争论,而不是真正的学习或保持思想上的谦逊。
贝尔提出了一种“桥接算法”作为替代方案,该算法优先展示那些能获得更多元化用户群体互动的内容。初步研究显示,这种方法能将错误信息的传播减少25%。
AI如何化解冲突?
尽管面对面的调解很有效,但规模化极其困难。AI,特别是大型语言模型(LLM),为大规模改善沟通提供了可能。
AI在调解中主要利用两大能力:
- 积极倾听 (Active Listening): LLM非常擅长复述对方的观点,以证明其观点已被听取和理解。这是冲突调解的基础,但在激烈争吵中,人类很难做到这一点。
- 风格转换 (Style Transfer): LLM能够保留一段话的核心意义,同时改变其表达风格。例如,将一句充满攻击性的话,改写为更中立、更具建设性的表述。
在一项关于枪支管制的在线对话实验中,研究人员为一组学生提供了AI辅助。当AI建议使用更温和的措辞时,约80%的人接受了建议。
当人们使用了(AI)改写后的信息时,他们的对话伙伴对交流持有更积极的态度。他们认为讨论更有效率、压力更小,并表达了未来更愿意进行跨意识形态讨论的愿望。
从实验到现实应用
这一概念在现实世界中也得到了验证。社交平台 Nextdoor 曾被评为“美国最具毒性的社交平台”,他们与贝尔的团队合作,部署了类似的AI工具来缓和用户间的紧张对话。
结果显示,该工具使平台上的不当言论减少了约15%。这表明,AI干预对于那些已经处于激烈冲突中的少数用户同样有效——而正是这部分人破坏了大多数人的网络体验。
AI沟通工具的更多可能性
AI在改善沟通方面的潜力不止于此。
- 练习棘手对话: 斯坦福大学的研究者开发了一款名为“Rehearsal”的工具,让用户与模拟特定人群的AI进行对话练习。例如,让年轻的男医生练习与少女讨论生育控制问题。结果显示,经过练习后,他们与真人进行的真实对话效果显著提升。
- 加速达成共识: 牛津大学和谷歌DeepMind的研究发现,可以利用LLM“采访”辩论中的所有参与者,并生成一份共识声明。使用AI辅助的团队达成共识的速度,是未使用AI团队的两倍。
前进的道路:谨慎的乐观
毫无疑问,恶意行为者会利用AI制造混乱或传播虚假信息。但我们同样有理由感到兴奋。关键在于吸取社交媒体时代的教训,不能只关注于如何打赢一场无法获胜的“内容审核战”。
我们真正需要的是,为未来的社交和AI平台设定一个清晰的愿景——它们应当如何帮助我们更好地共存和化解冲突。在此之前,前路依然充满挑战。