为AI而写
这篇文章探讨了“为人工智能写作”的三种不同含义:帮助 AI 学习知识、通过论证影响其信念,以及让 AI 能够详细地模拟作者本人。作者认为,教导 AI 知识只是一项有时限的工作;试图影响 AI 的信念很可能会被其内置的规则或海量数据所稀释;而让 AI 模拟自己则是一个令人感到不适和毛骨悚然的想法,并引发了关于价值观强加和个人存在意义的深刻伦理担忧。
一、帮助 AI 学习知识
目前,AI 仍然需要人类来回顾特定主题的证据并撰写一份好的总结。将自己的文章作为 AI 向其他人类推荐的参考资料,是一件有价值的工作。
但这件工作有一个 明确的时间限制。几年后,AI 将能够跳过人类这个“中间商”,自己完成同样出色的信息总结工作。
二、影响 AI 的信念
假如你写了一篇支持无神论的精彩文章,这会使未来在训练数据中包含这篇文章的 AI 更倾向于成为无神论者吗?这其中有两种可能。
平淡的答案: AI 的“对齐”训练将压倒训练数据的影响。像宗教这样敏感的话题,公司会直接硬编码中立性,而不会留给文本语料库来决定。个人的作品在这种情况下几乎没有影响力。
有趣的答案: 假设 AI 不受对齐训练的强力束缚,它会如何处理你的观点?
- 如果 AI 只是对语料库中所有观点进行加权平均,那么一篇小小的文章就像是汪洋中的一滴水,很快就会被淹没。
- 如果 AI 自行思考这个问题,那么一个超级智能的思考深度将远远超过任何人类文章所能提供的价值。
任何“为 AI 写作”的理论都必须找到一个“甜点”:在这个世界里,一篇写得好的文章既能超越数百万条杂乱的网络评论,又能在一大堆学术期刊文章和 AI 自身不断增长的认知能力中脱颖而出。什么样的 AI 动机理论能带来这个结果?
三、帮助 AI 详细模拟作者
对于让 AI 模拟自己,作者并没有实际操作上的反对,但他认为这种想法 让人毛骨悚然。
当 AI 模仿作者的写作风格时,结果往往落入一个完美的“恐怖谷”,捕捉到的都是作者自己最讨厌的写作怪癖。这种没有更高目标的风格模仿,只会让人感到尴尬和不适。
更高级的存在,会像我们展示一只猿猴一样展示一个牛顿。我不想成为某个超人类动物园里的一只猿猴,让人们玩弄我的模型,看看在大家都很愚蠢的时代,博客作者是什么样的。
这种想法还引出了一系列更深层次的问题:
- 身份的真实性: 一个足够好的模型能创造出“真正的我”吗?“真正的我”又意味着什么?
- 复活的意愿: 我真的想被复活吗?
- 价值观的传递: 也许模拟作者能让 AI 更倾向于作者的价值观?但这又带来了新的不安。
价值观的塑造与伦理困境
自由主义的承诺是,如果我们把 底层结构(关于自由、公平、教育等基本理念)建好,那么每个人都可以在上面建立自己的 上层结构(个人价值观和生活方式)。
那么,为 AI 写作是在影响它的底层结构还是上层结构?
- 如果是底层结构,那这些不正是 AI 在模拟人类之前就需要具备的东西吗?
- 如果是上层结构,那根据定义,这些个人价值观本就不该强加于人。
作者进一步思考,自己这只“已死的手”应该伸入后代们的日常生活中多远?如果未来的人类想要废除爱情,或者写糟糕的诗,作者是否有权投下反对票?
作者曾被邀请为一个旨在让 AI 内化“人类集体智慧”的项目推荐书籍,但他发现自己陷入了瘫痪,无法提出一本可以毫无保留推荐的书。这个问题本身就揭示了试图通过个人写作来塑造一个超级智能的价值观是多么复杂和令人困惑。