以乐高积木风格制作的战争罪行宣传视频正在网络上泛滥,这标志着信息战进入了一个新阶段。在这个阶段,传播速度、信息模糊性和算法推荐的重要性已经超过了事实的准确性。生成式人工智能使虚假内容难以辨别,传统验证方法逐渐失效,而开源调查员则面临着信息过载和工具受限的双重挑战。最终,辨别真伪的责任转移到了普通用户身上,需要我们通过新的方法来审视信息,并在转发前学会犹豫。
新的信息战形态
当前,信息战的核心不再是内容的绝对真实性,而是其传播效率。例如,与伊朗有关的媒体可以在 24 小时内制作出一段合成的乐高视频。这种合成媒体的重点在于速度——它只需要在被核实为虚假之前,尽可能广泛地传播出去。
这种趋势不仅限于宣传机构,甚至官方沟通也开始吸收病毒式传播的策略。白宫发布的模糊预告视频就是一个例子,它模仿了泄密和网络原生内容的神秘感。当官方账号也采用这种模糊的美学时,质疑记录的真实性便成了我们唯一的防御手段。
过去,零数字足迹意味着真实。现在,它可能恰恰相反,意味着这个画面从未被镜头捕捉过。真相总是滞后,而互动和参与度却遥遥领先。
核查工作面临的困境
开源调查员(OSINT)虽然仍在努力维持真相,但他们正在打一场信息量的战争。自动化的网络流量占据了互联网活动的半壁江山,其增长速度是人类流量的八倍。这些系统优先传播低质量的病毒式内容,确保虚假记录在核查完成前就已传遍网络。
与此同时,核查工具本身也变得越来越难以获取。
- 关键证据被限制: Planet Labs 这家为冲突报道提供卫星图像的重要供应商,应美国政府要求,停止提供中东冲突地区的图像。这极大地削弱了独立核实事件的能力。
- 官方态度的转变: 美国国防官员曾明确表示:“开源信息不是用来判断事实真相的地方。”
- 信息干扰: 大量“战争监控”账号的涌现,反而干扰了真实报道,通过聚合内容制造出一种虚假的确定性。
当获取主要视觉证据的渠道被收窄时,生成式人工智能便乘虚而入,它不仅填补了信息空白,更是在争夺定义“我们所见”的权力。
更难识别的生成式 AI
生成式 AI 平台正在从错误中学习,许多经典的“破绽”——如错误的手指数量、扭曲的文字——在新一代模型中已基本被修复。
更棘手的问题是专家所称的 “混合型”图片。在这些图片中,95% 的内容是真实照片,拥有真实的元数据和光影物理。但其中某个细节被篡改了,例如在制服上添加一个臂章,或在手中放入一把武器。像素级检测器往往会放过它们,因为图像的大部分内容确实是真实的。
“所有旧的验证方法都假设图像是某物的记录,”调查培训师 Henk van Ess 说,“而生成式媒体从根本上打破了这一假设。”
如何进行自我验证
在内容溯源系统大规模建立之前,辨别真伪的责任落在了我们每个消费者身上。以下五个步骤可以帮助我们减缓虚假信息的传播:
- 警惕“好莱坞”大片感: 如果一张图片感觉过于戏剧化、光线均匀、构图完美,就是一个危险信号。真实的灾难很少是对称和美观的。
- 进行多次反向图像搜索: 使用 Google Lens、Yandex 和 TinEye 等不同工具进行搜索。没有匹配结果不再能证明图片的原创性,它可能意味着这张图片根本不是拍摄出来的。
- 放大观察边缘细节: 不要只看地标,要去关注停车标志、井盖、影子的角度等。这些外围细节是伪造者最容易忽略的地方,也是不一致性最容易出现的地方。
- 将检测工具视为提示,而非结论: 一个没有解释的百分比分数并不是证据。那些能显示图片首次出现位置或是否存在于事实核查数据库中的工具更有用。
- 寻找“零号病人”: 追溯图像的最初来源。真实材料通常与具体的人(目击者、摄影师)或地点相关联,而合成内容则常常以匿名、精致且已为分享优化好的形式出现。
在一个合成内容传播速度快于核实速度的系统中,我们唯一真正的防御可能是行为上的:犹豫。在按下转发键前停顿一下,在一个不鼓励审视的系统中花几分钟进行审视。