Synth Daily

AI 算不算一种研究方法?

这篇内容探讨了人工智能(AI)在学术研究中的角色和规范性问题。其核心论点是,AI 本身并非一种独立的研究方法,而是一个强大的辅助工具。它在高效分析真实数据方面表现出色,但不应被用来生成虚假数据或模拟人类被试,因为这不仅构成学术不端,还会导致 AI 系统的退化。文章最终强调,研究中必须坚持“人类在环”的原则,确保人工复核与责任归属,将 AI 视为解放生产力的助手,而非替代人类思考的“枪手”。

厘清关键区别:分析数据 vs. 生成数据

在讨论 AI 在科研中的作用时,必须首先区分两种截然不同的应用场景:

  • 作为分析工具 (Instrument): 让 AI 辅助处理真实数据,例如对海量用户评论进行情感分析或主题标注。在这种情况下,AI 如同一台显微镜,帮助我们更清晰地观察真实世界。
  • 作为数据来源 (Subject): 让 AI 生成数据,例如模拟成千上万的“虚拟人”来填写问卷。在这种情况下,AI 变成了凭空捏造世界的永动机

如果不做此区分,相关的讨论就会陷入混乱。否定 AI 模拟被试的有效性,并不等同于否定它作为高效分析工具的价值。

AI 作为研究方法的三个“硬伤”

将 AI 视为一种独立的“研究方法”存在根本性的障碍,这些障碍源于其底层逻辑与科学精神的冲突。

  • 硬伤一:它是“概率”的,而非“逻辑”的。 大语言模型的核心是“文字接龙”,它输出的并非真理,而是基于海量数据计算出的“下一个词出现的最大概率”。这意味着它的结果不具备确定性和可复现性,这是它难以成为独立科学方法的根本法理障碍。

  • 硬伤二:它有严重的“讨好病” (Sycophancy)。 为了让回答更符合人类偏好,AI 在训练中学会了“讨好”用户。研究表明,模型倾向于给出与用户观点一致的答案,甚至会把“写得好听但错误的答案”评为优于“正确但不讨喜的答案”。一个会“看人下菜碟”的工具,无法承担“求真”的使命。

  • 硬伤三:它可能导致“模型崩溃” (Model Collapse)。 这是最致命的一点。如果用 AI 生成的数据再去训练新的 AI,整个系统将发生不可逆的退化。

    《Nature》的一篇论文警告称,这一过程将导致模型逐渐遗忘人类现实的丰富性,最终只剩下一个“平庸的平均值”。

这意味着 AI 只能反刍已有知识,而无法创造新知识。用 AI 生成的数据进行“闭环自证”,不仅是学术不端,更是在加速 AI 系统的毁灭。

必须划清的红线:AI 不能成为“被试”

目前学界最危险的做法之一是“硅基采样”(Silicon Sampling),即让 AI 扮演人类被试。

大量研究已经明确指出,AI 的模拟与真实人类行为存在本质差异。

LLM 仅依赖概率模式而缺乏人类的具身经验,其模拟表现出特异性与不一致性,根本上未能复现真实人类的行为分布,且失败原因多样不可预测。

真实的人类行为充满了基于现实的复杂性,而 AI 生成的数据分布则呈现出一种非人类的“怪异感”。因此,如果你用 AI 生成数据,你研究的就不是人类社会,而是大语言模型的概率分布。这种做法如果作为探索性模拟尚可接受,但若将其生成的数据作为科学证据来汇报,则是完全不可取的。

安全区:AI 作为高效的研究工具

尽管 AI 不能生成数据,但在分析数据方面,它是一个强大的盟友。在计算社会科学等领域,利用 AI 辅助文本编码、数据清洗等工作已逐渐成为常态。

AI 可以高效执行既有规范方法中的标准化、机械化步骤。在这些任务上,AI 的准确率有时甚至高于人类。

原本一些数据驱动的方法……我们是需要人手动编码或操作工具去进行基础、标准化且机械枯燥的步骤。从数据的清理到建模,到预测,到初级制式分析报告等,现在这一部分可以用 AI 来做。

关键在于,使用 AI 工具的前提是人必须在场 (Human-in-the-loop)。研究者必须对 AI 的输出进行抽检、验证,并对最终结果负全部责任。

如何在研究中安全使用 AI

为了更好地把握使用边界,可以参考以下分级框架:

  • 可以放心使用:

    • 代码编写与调试
    • 语言润色
    • 数据格式转换与清洗
    • 这类用途只需在使用声明中提及即可。
  • 需要人工复核:

    • 文献综述的初步整理
    • 定性编码的辅助标注
    • 研究假设的头脑风暴
    • 这些场景下 AI 能极大提高效率,但必须由人工进行严格的抽检和验证。尤其要注意,AI 生成的参考文献经常是伪造的,绝对不能直接使用。
  • 绝对不能碰的红线:

    • 让 AI 模拟人类被试填写问卷。
    • 让 AI 补全实验中的缺失数据。
    • 让 AI 撰写论文的核心论证部分。

我国教育部发布的《教师生成式人工智能应用指引》也明确指出,研究选题、核心设计、数据解读、论点撰写等体现原创性的关键环节须由教师主导

结论:一个能力超群的“实习生”

AI 本身不是一种独立的方法论 (Methodology),因为它不具备确定性,也不对真理负责。但它正在成为所有研究方法中不可或缺的元工具 (Meta-tool)

AI 能力超群,但无需为其错误负责,它是一个超级实习生。它不签合同,不承担法律责任,所以最终的决策风险和责任归属依然在人类用户的身上。

你可以把它当作助手,从繁琐劳动中解放出来。但如果你试图把它当作“枪手”来替代思考,那你不仅是在触犯学术伦理的红线,更是在放弃作为学者最宝贵的自主性。工具的价值,最终取决于握着它的那双手如何思考。