这篇文章探讨了在人工智能时代辨别信息真伪的挑战。通过分析教宗穿名牌羽绒服的AI图像事件和联合国教科文组织的数字平台治理指南,文章指出,仅仅依靠用户的媒体素养来对抗AI“幻觉”和算法操纵是远远不够的。核心论点是,我们应将关注点从简单的“真假”判断,转向理解信息的生产和传播机制。最终,文章呼吁通过加强平台监管、提升系统性思维和推动集体行动,来共同构建一个更透明、公正的数字环境,实现人与AI负责任的共生。
幻觉的开端与失效的对策
2023年3月,一张教宗方济各穿着白色Balenciaga羽绒服的照片在网络上疯传。这张图片光影逼真、细节令人信服,引发了广泛的讨论和转发,甚至有人以为是品牌营销。然而,这其实是芝加哥一位建筑工人使用AI工具Midjourney,通过几个关键词在几秒钟内生成的图像。
当事实核查机构宣布其为AI生成时,这张图片早已成为一个网络“事件”。一位用户的评论道出了许多人的心声:
如果这都是假的,我们还能相信什么?
几个月后,联合国教科文组织(UNESCO)发布了《数字平台治理指南》,试图为混乱的数字世界提供框架。其核心逻辑是,通过培养用户的批判性思维和推广事实查核,人们就能在AI制造的幻觉中保持清醒。
然而,这份指南的善意和理想主义背后,隐藏着巨大的局限性。
- 语言的软弱: 文件在关键建议上使用了“敦促”(urges) 而非“要求”或“强制”这类词语,这使得对平台的约束力几乎为零。
- AI的本质: AI并不会传统意义上的“说谎”。当我让ChatGPT生成一段引用了三篇学术论文的文字时,它给出的论文信息看似完整,但三篇论文全都不存在。它生成的不是谎言,而是统计学上看似合理的可能性。
这引出了一个更深层的问题:我们今天面对的挑战,或许已不是“如何识别真假”,而是“什么才是真实”。
个人努力为何会失效
UNESCO的指南遵循一种熟悉的逻辑:问题在于用户,因此解决方案在于让用户变得更聪明、更警觉。它假设只要你掌握了批判性思维和事实查核技能,就能在信息的洪流中辨别真伪。
但这种逻辑忽略了系统性的力量。
指南中充斥着“应该”、“鼓励”、“促进”这类措辞,很少使用“必须”或“要求”。在讨论算法透明度时,指南建议平台“应考虑”提供相关信息——这意味着,它们也可以不考虑。
我们可以做一个思想实验:假设你是一位认真的公民,遵循了所有媒体素养准则。你看到一则关于某国秘密开发武器的新闻,并进行了交叉验证,所有迹象都表明它是真的。于是你转发了它。三天后,事实核查机构宣布,这是一场由AI驱动、多层次的虚假信息攻击。
你做得很好,但你还是被骗了。原因是游戏的规则已然改变。在一个由算法精心设计的环境中,个人的警惕性是微不足道的。
权力的新规则:算法与共生
法国哲学家Antoinette Rouvroy提出了“算法治理性”的概念。她指出,在数字时代,权力的运作方式不是通过命令,而是通过设计环境。平台不需要告诉你该看什么,它们只需调整算法,你自然就会看到它们想让你看到的。
在这种背景下,传统的媒体素养教育如果只教人如何在迷宫里找出口,而不去质问迷宫为何存在,那它本身也可能成为一种治理工具。
更重要的是,人与技术的界限正在模糊。文学理论家Hayles提出的“后人类”概念认为,我们的思考、记忆和判断已经深深嵌入技术系统。
问题不是如何抵抗AI的影响,而是如何在与AI共生的状态下,保持伦理的、反思的、负责任的存在。
AI正在生成一种新的知识形态。它并非基于现实世界的证据和推理,而是通过计算词语间的统计关联,来预测什么样的内容“听起来合理”。其结果是一种既不真也不假、只是看似可信的内容。这使得“真实”和“可信”之间的联系变得前所未有的脆弱。
我们真正需要的是什么?
面对这一新现实,我们需要从改变提问的方式开始。
- 不是问“这是真的还是假的?”,而是问“这是如何被生产出来的?”
- 不是问“我如何识别AI内容?”,而是问“我如何理解AI正在塑造我的认知?”
- 不是问“我如何保护自己?”,而是问“我们如何共同创造一个更透明的环境?”
这需要一种新的意识和行动。
从个人责任转向集体行动: 个人的聪明无法对抗系统性的操纵。我们需要争取“数字公民权”,例如算法知情权、数据控制权和问责权。欧盟的《人工智能法案》和《数字服务法》正是朝这个方向迈出的重要一步,它们承认不能把所有责任都推给用户。
挑战平台责任的逻辑: 如果一家食品公司售卖有毒食品,我们不会说“消费者应该学会辨别毒素”。同样,平台设计了极易传播谎言的系统,就不能将责任完全推给用户。算法推荐的逻辑必须对监管机构透明,平台也应为虚假信息造成的实际伤害承担法律责任。
培养新的素养:
- 系统性思维: 看到一条信息时,不仅要问其真伪,还要问:谁资助的?数据从何而来?为何在这个时间点被放大?
- 技术素养: 了解算法推荐、大语言模型“幻觉”等基本原理,理解信息环境背后的权力逻辑。
- 持续反思: 在使用AI时保持觉察,思考其回应为何令人信服,是因其有理,还是因为它迎合了你的期待。
结语:学会在流动中游泳
AI时代,真相本身变得流动和不稳定。我们无法指望回到一个真相清晰可辨的时代,那个时代或许从未存在过。
我们需要的不是一副更好的“真相眼镜”,而是学会在这片流动的海洋中游泳。这意味着:
- 放弃掌控,学会共处: 承认我们无法站在技术之外,但仍可以在技术之中保持清醒和反思。
- 理解水流,选择方向: 确定一件事的方式变了。不再是因为它“对应现实”,而是因为我们理解了它“如何被生产、为何被生产、被谁生产”。这种确定性更脆弱,但也更诚实。
我们不是作为被动的接收者,而是作为有权利的公民和主动的共创者,去参与塑造这个正在被AI重新定义的世界。这不会容易,但这是我们必须学习的生存方式。