Synth Daily

你是不是也听过这些 AI 术语,然后跟着点头装懂?咱们来把这事儿整明白。

这份指南旨在揭开人工智能领域的常用术语,帮助你理解这个快速发展的行业语言。它系统地解释了从核心模型概念(如 通用人工智能大型语言模型)到具体技术过程(如 训练推理微调蒸馏)的各种术语。此外,它还涵盖了AI运行所依赖的基础设施术语,例如 API 端点Token 吞吐量,旨在让复杂的概念变得清晰易懂。

AGI (通用人工智能)

通用人工智能 (Artificial General Intelligence) 是一个概念模糊但至关重要的术语。它通常指在大多数(如果不是全部)任务上,能力不亚于甚至超过普通人类的 AI。

  • OpenAI 首席执行官 Sam Altman 曾将其描述为“一个可以作为同事雇佣的普通人”。
  • OpenAI 的章程则将其定义为“在大多数具有经济价值的工作上超越人类的高度自治系统”。
  • Google DeepMind 的看法略有不同,认为 AGI 是“在大多数认知任务上至少与人类能力相当的 AI”。

即使是处在 AI 研究最前沿的专家们,对这个概念也感到困惑。

AI 代理 (AI agent)

AI 代理 是指一种利用 AI 技术为你执行一系列任务的工具,其能力超出了基础的 AI 聊天机器人。例如,它可以处理报销、预订机票或餐厅,甚至编写和维护代码。这个概念的核心是一个能够调用多个 AI 系统来执行多步骤任务的 自治系统。不过,这是一个新兴领域,其具体含义和基础设施仍在不断发展中。

API 端点 (API endpoints)

你可以将 API 端点 想象成软件背后的“按钮”,其他程序可以通过“按下”这些按钮来让它执行某些操作。开发者利用这些接口来构建集成,例如,允许一个应用程序从另一个应用程序中提取数据,或者让 AI 代理直接控制第三方服务,而无需人工操作。随着 AI 代理能力的增强,它们正越来越多地学会自行发现和使用这些端点,为自动化带来了强大的可能性。

思维链 (Chain of thought)

在 AI 领域,思维链推理 意味着将一个复杂问题分解成更小的、中间的步骤,以提高最终结果的质量。对于大型语言模型来说,这就像人类解决复杂数学题时需要草稿纸一样。虽然获得答案的时间通常更长,但答案正确的可能性也更大,尤其是在处理逻辑或编程问题时。

编码代理 (Coding agents)

这是“AI 代理”的一个更具体的概念,特指应用于软件开发领域的程序。编码代理 不仅仅是为人类提供代码建议,而是可以 自主地编写、测试和调试代码。它能够处理整个代码库,发现错误、运行测试并推送修复,整个过程几乎不需要人类监督。你可以把它想象成一个不睡觉、不分心、速度极快的实习生,但最终工作成果仍然需要人类审核。

算力 (Compute)

算力 通常指驱动 AI 模型运行所必需的计算能力。这种处理能力是 AI 产业的燃料,使其能够训练和部署强大的模型。这个术语也常被用作提供算力的硬件的简称,例如 GPU、CPU、TPU 等构成现代 AI 产业基石的基础设施。

深度学习 (Deep learning)

深度学习 是机器学习的一个分支,其 AI 算法被设计成多层的人工神经网络结构。这种结构受人脑中神经元相互连接的启发,允许模型处理比简单机器学习系统更复杂的关联。

  • 深度学习模型能 自行识别数据中的重要特征,而无需工程师手动定义。
  • 它支持算法从错误中学习,并通过重复和调整来改进输出。
  • 缺点是需要海量数据(数百万或更多)才能取得好结果,并且训练时间长、开发成本高。

扩散 (Diffusion)

扩散 是许多生成艺术、音乐和文本的 AI 模型背后的核心技术。受物理学启发,扩散系统通过不断添加“噪声”来逐步“破坏”原始数据(如图片、歌曲)的结构,直到什么都不剩下。然后,AI 会学习一个“逆向扩散”过程,尝试从纯噪声中恢复出原始数据。通过掌握这个过程,AI 便获得了从无到有生成全新数据的能力。

蒸馏 (Distillation)

蒸馏 是一种通过“教师-学生”模型从一个大型 AI 模型中提取知识的技术。开发者向一个大型的“教师”模型发送请求并记录其输出,然后使用这些输出数据来训练一个更小、更高效的“学生”模型。学生模型的目标是模仿教师模型的行为。

这种技术可以用来创建一个基于大型模型但 规模更小、效率更高 的新模型,同时将知识损失降到最低。OpenAI 的 GPT-4 Turbo 很可能就是这样开发的。

微调 (Fine-tuning)

微调 指的是对一个已经训练好的 AI 模型进行进一步的训练,以优化其在某个更具体任务或领域的表现。这通常通过向模型输入新的、高度专业化的数据来完成。许多 AI 初创公司正是利用大型语言模型作为起点,然后通过对其进行微调来为特定行业或任务创造更高的价值。

生成对抗网络 (GAN)

生成对抗网络 (Generative Adversarial Network) 是一种机器学习框架。它包含两个相互竞争的神经网络:

  • 生成器 (Generator): 尝试根据训练数据生成新的、逼真的输出。
  • 判别器 (Discriminator): 努力分辨出哪些数据是真实的,哪些是生成器伪造的。

这场“竞赛”促使生成器不断优化其输出,使其越来越难以被识破,从而产生高度逼真的结果,例如深度伪造(deepfake)技术。

幻觉 (Hallucination)

幻觉 是 AI 行业用来描述 AI 模型捏造不实信息 的术语。当 AI 的训练数据存在空白或不足时,它可能会自信地生成完全错误的内容。这是一个巨大的质量问题,因为错误的输出可能具有误导性,甚至带来现实世界的风险(例如,提供有害的医疗建议)。

推理 (Inference)

推理 是指 运行一个已经训练好的 AI 模型 的过程。模型利用其在训练中学到的模式,对新的、未见过的数据进行预测或得出结论。推理必须在训练之后进行。推理可以在各种硬件上执行,从智能手机处理器到高端 GPU,但性能差异巨大。一个大型模型在笔记本电脑上可能需要很长时间才能做出预测,而在配备高端 AI 芯片的云服务器上则快得多。

大型语言模型 (LLM)

大型语言模型 (Large Language Models) 是驱动 ChatGPT、Claude、Gemini 等流行 AI 助手背后的模型。当你与 AI 助手聊天时,你就是在与一个 LLM 互动。这些模型是基于数十亿个被称为“权重”的数字参数构建的深度神经网络,它们通过学习海量书籍、文章和网页中的语言模式来构建一个庞大的词语关系图。当你给出一个提示时,模型会生成它认为最有可能接续这个模式的文本。

内存缓存 (Memory cache)

内存缓存 是一种旨在提高 AI 推理效率的优化技术。AI 的工作依赖于大量的数学计算,而缓存的作用就是 保存某些计算结果以供未来重复使用,从而减少重复计算,节省算力并加快响应速度。其中一种著名的缓存技术是 KV 缓存,它在 Transformer 模型中特别有效,可以显著提高生成答案的速度。

神经网络 (Neural network)

神经网络 是支撑深度学习以及整个生成式 AI 繁荣的多层算法结构。这个想法的灵感来自人脑中密集互连的神经元,但直到最近,随着视频游戏行业推动的 图形处理器 (GPU) 的兴起,这一理论的真正威力才被释放。GPU 的并行计算能力使得训练层数远超以往的神经网络成为可能,从而在语音识别、自动驾驶等众多领域取得了突破性进展。

开源 (Open source)

开源 指的是软件或 AI 模型的基础代码被公开发布,任何人都可以使用、检查或修改。在 AI 领域,Meta 的 Llama 模型家族是著名的例子,而 Linux 操作系统则是其在传统软件领域的历史先驱。与此相对的是 闭源,即代码是私有的,用户只能使用产品而无法看到其工作原理,例如 OpenAI 的 GPT 模型。开源与闭源之争已成为 AI 行业的核心辩论之一。

并行化 (Parallelization)

并行化 意味着同时做很多事情,而不是一件接一件地做。就像让 10 名员工同时处理一个项目的不同部分,而不是让一名员工按顺序完成所有工作。在 AI 领域,并行化对于训练和推理都至关重要。现代 GPU 正是为并行执行数千次计算而设计的,这也是它们成为 AI 行业硬件支柱的原因。

内存末日 (RAMageddon)

RAMageddon 是一个有趣的术语,用来描述一个不太有趣的趋势:由于 AI 行业对 内存芯片 (RAM) 的巨大需求,导致全球范围内的供应短缺和价格上涨。大型科技公司和 AI 实验室为建设数据中心而大量采购 RAM,挤压了其他行业(如游戏、消费电子)的供应,导致这些行业的产品成本上升。

强化学习 (Reinforcement learning)

强化学习 是一种 AI 训练方法,系统通过 反复试验和获得奖励 来学习。这就像用零食训练宠物一样,只不过“宠物”是神经网络,“零食”则是表示成功的数学信号。这种方法允许模型在环境中探索、采取行动,并根据收到的反馈不断调整其行为。从人类反馈中强化学习 (RLHF) 是目前领先 AI 实验室用来微调模型,使其更有用、更准确、更安全的核心技术之一。

Token

Token 是连接人类语言和 AI 计算的桥梁。它们是 AI 模型处理和生成文本的基本单位。通过一个称为 Tokenization 的过程,原始文本被分解成模型可以理解的小块(通常是单词的一部分或单个词)。在商业应用中,Token 也决定了成本——大多数 AI 公司按使用的 Token 数量收费。

Token 吞吐量 (Token throughput)

Token 吞吐量 是衡量一个 AI 系统在给定时间内可以处理多少工作的指标。高 Token 吞吐量是 AI 基础设施团队的关键目标,因为它决定了一个模型可以同时为多少用户提供服务,以及每个用户获得响应的速度。最大化 Token 吞吐量已成为该领域的一种执念。

训练 (Training)

训练 是开发机器学习 AI 的核心过程。简单来说,就是将大量数据输入模型,让其从中学习模式,以便能够生成有用的输出。无论是识别猫的图片还是按需创作一首诗,都是模型在训练过程中通过响应数据特征来调整自身以实现特定目标的结果。训练过程通常成本高昂,因为它需要巨大的数据输入量。

迁移学习 (Transfer learning)

迁移学习 是一种技术,它将一个已经为某个任务训练好的 AI 模型作为新任务的起点。这使得在新模型的开发中可以重用之前训练周期中获得的“知识”,从而节省时间和资源。当用于新任务的数据量有限时,这种方法尤其有用。但其局限性在于,为了在新的特定领域表现良好,模型通常仍需要额外的数据进行进一步训练。

权重 (Weights)

权重 是 AI 训练的核心。它们是决定训练数据中不同特征(或输入变量)重要性程度的 数值参数,从而塑造 AI 模型的最终输出。你可以把权重看作定义了数据集中哪些信息对于特定任务最重要的调节器。模型训练通常从随机分配的权重开始,随着训练的进行,权重会不断调整,以使模型的输出更接近目标。

验证损失 (Validation loss)

验证损失 是一个衡量 AI 模型在训练期间学习效果的指标,数值越低越好。研究人员密切关注这个数字,用它来决定何时停止训练、调整参数或调查潜在问题。它有助于发现一个关键问题:过拟合 (overfitting),即模型只是记住了训练数据,而没有真正学会可以推广到新情况的模式。