一项新的研究项目提出,“错误信息”问题主要源于需求端,而非供应端,并且这个问题在主流媒体中的普遍程度远超学术界和精英社会的认知。该项目认为,解决问题的最佳方式是让那些只为迎合既有观点的“确认性虚假信息”在社交上变得令人尴尬。为此,研究团队正在开发利用大语言模型(LLM)的工具,并探索基于市场机制的新型制度,以提升新闻的真实性和专家的可信度。
使用大语言模型(LLM)衡量和评估新闻质量
1. 评估过往的预测
我们正在构建一个 LLM 工具,用于扫描旧新闻,识别其中足够具体、可以被验证的预测,并确定其“到期日”。如果日期已过,工具会自动评估预测的准确性。
- 为什么这很重要?
- 比事实核查更可信: 事实核查通常针对已有争议的说法,而一个预测是否实现,其结果往往没有争议。
- 建立专家声誉评分: 过去,由于技术限制,大规模评估专家预测的可行性很低。现在,借助 LLM,我们可以系统性地评估专家的知识整合与判断能力。
- 专家信誉至关重要: 我们大部分知识来源于他人的讲述,而非亲身经历。
正如 Michael Huemer 所说:“关键问题是,你为什么认为某人关于某个命题的说法是可靠的……可悲的是,我几乎没有真正去验证过多少人。我没有对各类人物的断言进行过大规模的随机抽样和核实。”
2. 识别“选择性引用”(Cherry-picking)
我们还在开发另一款 LLM 工具,用于评估新闻报道是否通过误导性的例子来支撑其叙事。
- 该程序会扫描新闻,识别其明示或暗示的事实主张,并找出支撑这些主张的证据。
- 随后,它会独立评估现有数据,判断所引用的例子是否具有代表性,还是仅仅为了支持特定观点而进行的 选择性引用。
3. 评估无效信息比例
我们还刚开始构建一个工具,用于将新闻内容解析为以下几类:
- (a) 前提
- (b) 主张
- (c) 论证
- (d) 证据
- (e) 以上皆非的内容
其中 (e) 类内容通常是无根据的叙事引导或情感诉求,属于负面部分。我们的目标是衡量这类 认知上无用的内容 在一篇新闻中占据的比例。
超越预测市场的市场化机制
1. 新闻保证金与挑战赏金
内容创作者可以设立一份保证金,如果有人认为其内容失实,可以通过挑战来赢得这笔钱。这是一种创造可靠质量信号的合约机制。
- 如何设计? 创作者将一笔资金(如 1 万美元)存入托管账户。挑战者需支付挑战成本,然后由在线陪审团或双方各自选择的匿名法官进行裁决。
- 能否规模化? 如果像 Meta 这样的平台能为创作者提供托管服务,并将参与该系统的行为作为算法推荐的加分项,这能否成为一种去中心化且可信的质量信号?
2. 由预测市场资助的调查性新闻
为什么那些投入大量精力进行信息收集和分析的新闻机构,不在发布报道前,先到 预测市场 上下注呢?
- 尽管监管机构可能视其为非法,但这或许并非主要障碍。
- 真正的原因是什么?这能否为严谨的新闻业开创一种全新的商业模式?