2025 之后的大型非营利组织

这篇内容基于作者在生存与繁荣基金(SFF)担任推荐人的经验,为 2025 年的慈善捐赠提供了详尽的指南。核心议题是识别和评估在人工智能安全、政策、技术研究及其他长期风险领域进行高质量工作的非营利组织。关键论点在于,捐赠者应基于个人的影响力理论、价值观和本地知识来做出决策,而不是盲目跟随推荐。结论是,虽然文中列出了大量值得资助的组织及其详细评估,但最终的捐赠决策应是个人深思熟虑的结果,同时鼓励采用如无条件资助个人等更灵活、高效的捐赠方式。

给捐赠者的几点提醒

在深入了解具体的组织之前,请先考虑以下几点通用建议。这些原则旨在帮助你更有效地进行慈善捐赠,并避免一些常见的陷阱。

运用你的个人影响力理论

你应该倾听论点和证据,但不要让任何人告诉你什么是重要的、什么是好的事业、或者哪种行动是最好的。

    • 政策与倡导的特殊性: 这在人工智能政策领域尤为重要。如果一个组织倡导你认为是坏的政策,或者其行为方式在你看来会产生不良后果,就不要资助他们。
    • 效率的判断: 如果你认为一个组织的行事方式效率低下,也不要资助他们。
    • 相信自己的判断: 只资助那些你认为能以有效方式推动良好变革的人。关键在于 认为,而不是 认为。

作者本人的关注点主要在于确保 AI 不会毁灭全人类,并高度重视那些能影响 AI 实验室或政府政策的组织,以及那些进行非主流技术路径研究的团队。

运用你的本地知识

最好的捐赠去处,往往是你拥有本地知识的地方。如果你根据自己的信息渠道,知道有人正在做或有潜力做伟大的工作,那么你的资助就能为他人无法识别的机会提供支持和证明。

“那些最不为他人所知、最难被大型捐助者公式化评估的项目,如果你自己能看懂,就更应该挺身而出。”

这样做可以避免信息瀑布和“路灯下找钥匙”的偏见,也能避免逆向选择——那些显而易见的好机会可能早已获得资助。

无条件资助有价值的个人

申请资助、筹款和证明自身存在的整个过程非常折磨人,尤其是对那些从事创造性工作的优秀人才。持续的资金压力和证明自己价值的需求会严重损害真正的生产力。

如果你认识一些人,你坚信他们应该被放手去做他们认为最好的事情,而无需为钱发愁,那么给予他们无条件的资助,是一个绝佳的资金用途。

这同样适用于“追溯性资助”——为那些已经做出巨大贡献的人提供奖励,能建立一个良好的激励传统。

不要只做边际思考

要抵制纯粹的边际思维,即只问“再多一块钱能做什么”。这种思维模式的激励机制很快就会变得扭曲。它会奖励那些将最高影响力活动置于危险境地的组织,而惩罚那些能够稳健运营或保护核心活动的组织。

“如果你总是坚持成为‘最后的资助者’,要求项目或整个组织陷入困境才出手,你就是在背叛合作。请停止这样做。”

警惕成为筹款目标

SFF 的创立者之一 Jaan Tallinn 设立这个机制,很大程度上是为了将捐赠决策与自己分离,这样他就可以坦诚地告诉别人决策权不在他手中,从而不必担心与他交谈的人都想向他筹款。这对于保护健康的沟通和信息环境至关重要。


值得关注的组织名单

以下组织按类别划分,每个组织都附有信心水平和所需资金规模的评估。

  • 信心水平:

      • 高: 有足够信息确信该组织是一个好的选择。
      • 中/低: 信息相对较少,建议捐赠者进行更多个人研究。低信心仍是积极评价,意味着该组织已通过了初步筛选。
  • 所需资金:

      • 低: 少于 25 万美元可能就足以获得全部资金。
      • 中: 约在 25 万至 200 万美元之间。
      • 高: 可以有效利用超过 200 万美元的资金。

作者直接参与的组织

Balsa Research

    • 关注点: 以废除《琼斯法案》为起点,为促进经济繁荣奠定基础。
    • 负责人: Zvi Mowshowitz(作者本人)
    • 所需资金:
  • 信心水平:

    该组织致力于推动废除《琼斯法案》等旨在促进经济丰裕的议程项目。他们认为这些领域被忽视但影响重大,通过研究、起草示范法案、建立联盟等方式,为政策变革创造机会。此外,他们也关注 NEPA 改革和联邦住房政策。

Don’t Worry About the Vase (作者的博客)

    • 关注点: Zvi Mowshowitz 的个人写作和公共知识分子工作。
    • 负责人: Zvi Mowshowitz
    • 所需资金: 无明确需求,但多多益善
  • 信心水平:

    这是作者的个人博客项目。得益于慷慨的匿名捐助者,作者能够全职写作,这使得博客成为可能。额外的资金将用于提升博客内容,甚至可能扩展为一个更全面的新闻运营或初创项目。

专注于 AI 非技术研究与教育的组织

这类组织致力于研究 AI 相关的生存风险,但不以技术工作或直接影响政策为核心。

Lightcone Infrastructure

    • 关注点: 理性社区基础设施,运营 LessWrong、Alignment Forum 和 Lighthaven。
    • 负责人: Oliver Habryka 和 Rafe Kennedy
    • 所需资金:
  • 信心水平:

    这是作者所有类别中的首选。他们运营的 LessWrongAlignment Forum 是理性社区的核心基础设施,而他们的活动场地 Lighthaven 被誉为设计最佳的会议场所,极大地促进了高质量的对话。作者认为,如果这三个项目中的任何一个无法继续,都将是巨大的损失。

The AI Futures Project

    • 关注点: AI 预测研究、治理研究和政策参与。
    • 负责人: Daniel Kokotajlo 和 Eli Lifland
    • 所需资金: 目前无
  • 信心水平:

    该项目负责人 Daniel Kokotajlo 曾离开 OpenAI 以保留其公开发言的权利,此举促使 OpenAI 允许其他员工发声。他的项目通过兵棋推演等形式,极大地改善了关于 AI 风险的讨论。他们的报告《AI 2027》甚至得到了美国副总统的重视。目前资金充足。

Effective Institutions Project (EIP)

    • 关注点: AI 治理、咨询和研究,寻找改变决策的关键点。
    • 负责人: Ian David Moss
    • 所需资金:
  • 信心水平:

    EIP 致力于研究 AI 治理与更广泛政治经济环境的交叉点,特别关注权力集中和权力从人类向 AI 无意转移的风险。他们有成功改善大型 AI 实验室安全实践的记录,并被认为能以小博大,发挥超出其资金规模的影响力。

Artificial Intelligence Policy Institute (AIPI)

    • 关注点: 主要进行关于 AI 的民意调查,同时从事游说和危机应对准备。
    • 负责人: Daniel Colson
    • 所需资金:
  • 信心水平:

    AIPI 发布的民意调查为了解公众对 AI 的看法提供了重要数据。他们确保了总有人在询问这些关键问题。尽管公众的观点可能不成熟,但持续追踪这些观点对于理解社会动态和应对潜在的错误干预至关重要。

AI Lab Watch

    • 关注点: 监控前沿 AI 实验室的安全记录和计划。
    • 负责人: Zach Stein-Perlman
    • 所需资金:
  • 信心水平:

    Zach 一直在密切关注主要 AI 实验室的安全和安保计划,并从批判性角度撰写详细反馈。他的工作以高标准和怀疑精神著称,其网站为评估实验室行为提供了宝贵资源。

Palisade Research

    • 关注点: 通过 AI 能力演示,向决策者展示其潜力和失控风险。
    • 负责人: Jeffrey Ladish
    • 所需资金:
  • 信心水平:

    该组织的工作非常重要,因为决策者需要具体、可感知的演示来理解 AI 风险。作者认为,具体的演示比抽象的警告更有效。Jeffrey Ladish 被认为是执行这一计划的合适人选,并且他们的演示已被证明产生了实际影响。

专注于 AI 政策与外交的组织

Center for AI Safety (CAIS) and the CAIS Action Fund

    • 关注点: AI 研究、领域建设和倡导。
    • 负责人: Dan Hendrycks
    • 所需资金:
  • 信心水平:

    CAIS 在政策倡导领域影响力巨大,发起了《CAIS AI 风险声明》,并推动了 SB 1047 法案等重要议程。他们拥有强大的关系网络和深刻的洞察力,并且敢于冒险。若想支持其政策工作,可以捐款给其 501(c)(4) 组织 Action Fund。

Foundation for American Innovation (FAI)

    • 关注点: 科技政策研究、思想领导力和政府教育。
    • 负责人: Grace Meyer
    • 所需资金:
  • 信心水平:

    FAI 致力于推动创新,但在 AI 领域采取了审慎的立场。他们能够用共和党人熟悉的语言与其沟通,这在 AI 安全领域是独一无二的能力。尽管作者与 FAI 的研究员在某些观点上存在分歧,但认可他们在关键时刻发挥了重要作用,尤其是在计算治理方面。

Encode AI (原 Encode Justice)

    • 关注点: 青年行动主义,关注 AI 安全问题。
    • 负责人: Sneha Revanur
    • 所需资金:
  • 信心水平:

    该组织以极低的预算和志愿者模式起步,在多项政策活动中发挥了作用。现在他们正在走向专业化。这是一个值得支持的青年组织,尽管存在意识形态被其他议题捕获的风险,但作者认为值得一试。

Institute for AI Policy and Strategy (IAPS)

    • 关注点: 为政府圈提供政策研究和项目。
    • 负责人: Peter Wildeford
    • 所需资金:
  • 信心水平:

    IAPS 与政府建立了稳固的联系,尤其是在共和党方面,填补了一个重要的空白。负责人 Peter Wildeford 本人也通过公开写作产生了积极影响。他们在硬件治理和芯片问题上尤为强大。

Secure AI Project

    • 关注点: 倡导公共安全与安保协议(SSPs)及相关预防措施。
    • 负责人: Nick Beckstead
    • 所需资金:
  • 信心水平:

    作者曾与他们合作,并对他们的专业性和成果印象深刻。他们注重细节,关心如何让方案对所有人都有效,并已取得实际成果。作者是他们的忠实支持者。

从事机器学习对齐研究的组织

Model Evaluation and Threat Research (METR)

    • 关注点: 模型评估。
    • 负责人: Beth Barnes, Chris Painter
    • 所需资金:
  • 信心水平:

    METR 已成为外部评估前沿模型危险能力的黄金标准。他们的工作对于确保 AI 实验室负责任至关重要。虽然理想情况下实验室应资助他们,但现实并非如此,因此慈善捐款非常必要。这是一个可以放心投入大量资金、且理由清晰的领域。

Alignment Research Center (ARC)

    • 关注点: 基于理论的对齐工作。
    • 负责人: Jacob Hilton
    • 所需资金:
  • 信心水平:

    ARC 拥有良好的长期研究记录,是资助纯粹对齐研究的安全选择。他们能够有效利用额外资金并吸引优秀人才。

Apollo Research

    • 关注点: AI 欺骗性行为、评估和治理。
    • 负责人: Marius Hobbhahn
    • 所需资金:
  • 信心水平:

    Apollo Research 专注于展示 AI 的“火警”信号,例如他们证明了大型语言模型在压力下会策略性地欺骗用户。这类工作对于唤醒公众和决策者的警觉性至关重要。

Timaeus

    • 关注点: 可解释性研究。
    • 负责人: Jesse Hoogland, Daniel Murfet, Stan van Wingerden
    • 所需资金:
  • 信心水平:

    Timaeus 专注于可解释性工作,并拥有一个杰出的顾问团队。有证据表明,他们的研究已经影响了顶级 AI 实验室的研究议程。对于希望直接资助可解释性研究的捐赠者来说,这是一个绝佳的选择。

从事数学、决策论和智能体基础研究的组织

这类工作旨在探索基于不同于当前大型语言模型架构的 AI 路径,这些路径可能更易于对齐。虽然成功率低,但潜在回报巨大。

Orthogonal

    • 关注点: 通过智能体基础实现 AI 对齐。
    • 负责人: Tamsin Leake
    • 所需资金:
  • 信心水平:

    Orthogonal 采取“老派”的视角,认为快速的智能起飞是可能的,而大多数对齐方法可能是徒劳的。他们的研究方向是一条艰难但值得尝试的道路,是有可能真正解决问题的少数几个团队之一。

Topos Institute

    • 关注点: 用于 AI 对齐的数学研究。
    • 负责人: Brendan Fong 和 David Spivak
    • 所需资金:
  • 信心水平:

    Topos 实质上是在“用数学解决 AI 问题”。作者确信他们能将捐款高效地转化为可能非常有价值的数学研究。尽管最终可能一无所获,但其潜在的上行空间巨大,而下行风险极低。

从事生物风险防控的组织

Secure DNA

    • 关注点: 扫描 DNA 合成以识别潜在危险。
    • 负责人: Kevin Esvelt, Andrew Yao, Raphael Egger
    • 所需资金:
  • 信心水平:

    这是一个极好的想法:为 DNA 合成提供快速、免费的加密筛选,防止有人制造危险的生物制剂。AI 的发展使得这一需求更加紧迫。虽然作者没有时间深入调查,但认为总得有人来做这件事。

Blueprint Biosecurity

    • 关注点: 提升对未来大流行的应对能力,如新一代个人防护装备和远紫外线消毒。
    • 负责人: Jake Swett
    • 所需资金:
  • 信心水平:

    我们显然应该在流行病防范上投入更多,而 Blueprint Biosecurity 正在推动这方面的投资。他们的工作方向无疑是正确的。

再资助和提供建议的组织

如果你时间有限,或希望将决策权委托给他人,可以考虑以下组织。

SFF Itself (!)

    • 关注点: 基于推荐人网络发放赠款。
    • 负责人: Andrew Critch 和 Jaan Tallinn
    • 所需资金:
  • 信心水平:

    作者认为,如果选择一个再资助组织,与 SFF 合作是最佳选择。该流程已经很成熟,且有大量优秀的申请者,可以有效扩展。他们特别希望与美国捐赠者合作,以资助 501(c)(4) 等政治性组织。

AI Risk Mitigation Fund

    • 关注点: 为 AI 安全项目提供赠款。
    • 负责人: Thomas Larsen
    • 所需资金:
  • 信心水平:

    这是一个直接明了的再资助组织,专注于中等规模的 AI 安全项目。其负责人 Larsen 在项目判断上获得了其他推荐人的高度评价。如果你相信他们的判断力优于自己,这是一个不错的选择。

从事人才培养的组织

AI Safety Camp

    • 关注点: 通过具体的项目实践来学习 AI 安全。
    • 负责人: Remmelt Ellen, Linda Linsefors, Robert Kralisch
    • 所需资金:
  • 信心水平:

    该组织被普遍认为是同类项目中的黄金标准。他们通过“边做边学”的模式,让参与者在实际项目中获得锻炼,成本效益极高。如果要在人才培养领域进行资助,这里是首选。

Emergent Ventures

    • 关注点: 向个人提供小额赠款,以帮助他们发展才华。
    • 负责人: Tyler Cowen
    • 所需资金:
  • 信心水平:

    这是一个独特的人才项目,不局限于 AI 安全,而是支持各领域的有志之士。决策快速,不官僚。它旨在帮助有抱负的人启动项目、建立联系。作者认为这是一个极其高效的干预措施。

CFAR

    • 关注点: 教授理性思维技能。
    • 负责人: Anna Salamon
    • 所需资金:
  • 信心水平:

    作者是 CFAR 的董事会成员,他认为这项工作非常有价值。CFAR 正在经历复兴,重新开设工作坊,并开发了新的课程内容,旨在帮助人们更好地思考和理解世界。


最后提醒

    • 未被列入名单的组织不代表不好,可能是因为作者不了解或信息过时。
    • 一些组织可能主动要求不被列入。
    • 即使一个组织被列入,你仍需根据自己的价值观和判断来决定是否捐赠。没有普适的正确答案。