微软与华盛顿大学合作,利用AI图像识别技术分析非法象牙上的手写标记,以揭示走私网络。同时,阿姆斯特丹大学的研究发现,大型语言模型(LLM)在处理抽象推理任务时,其表现和内部表征与人类大脑存在相似性,特别是经过推理优化的模型更接近人类思维模式,尽管准确率稍有牺牲。此外,复旦大学通过数据增强技术,成功训练出专用于模拟电路设计的开源模型AnalogSeeker,其性能可与主流通用模型媲美。最后,谷歌发布了超小型语言模型Gemma 3,专为手机等低功耗设备设计,旨在推动AI模型的普及与工业化应用。
利用AI识别象牙标记,打击走私网络
微软与华盛顿大学的研究人员合作,展示了如何运用现有的人工智能技术来辅助分析非法的象牙贸易。他们通过AI系统自动识别象牙上的手写签名,从而更深入地理解了复杂的走私网络。
研究团队建立了一个系统,专门用于提取和分析缴获象牙上的手写标记。
- 数据基础: 他们使用了从8次大规模象牙查抄行动中收集的6,085张照片。
- 技术应用: 利用物体检测模型(MM-Grounding-Dino)从照片中提取了超过17,000个独立标记。
- 分析方法: 结合专家人工标注和监督学习模型,最终识别出184个在不同象牙上反复出现的“签名标记”,其中20个签名甚至出现在多次不同的查抄行动中。
“签名标记的出现频率可以揭示标记所代表的实体在走私链条中扮演的角色。标记频率的分布有助于我们了解将象牙从源头转移到出口集散地的个体数量。”
这项研究表明,AI可以有效放大稀缺的人类专家资源,帮助他们处理更庞大的数据量,是AI作为通用技能增强工具的又一个有力证明。
大型语言模型与人类在抽象推理上的相似性
阿姆斯特丹大学的研究人员发现,在解决抽象序列推理问题时,大型语言模型与人类之间不仅在能力上存在关联,其内部处理问题的方式也显示出惊人的相似性。
研究的核心是“抽象模式补全任务”,即观察一系列形状或符号,并推断出下一个应该是什么。
- 性能差距: 在模型规模较小时,人类的表现(82.47%准确率)远超AI(平均40.59%)。
- 性能追赶: 当模型规模扩大到约700亿参数时,如Qwen2.5-72B和Llama-3.3-70B,其准确率能达到 75%至81.75%,与人类水平非常接近。
- 内部表征: 通过对比模型激活层和人类脑电图(EEG)数据,研究发现大型LLM和人类在组织信息的方式上存在一定的相似性。
一个有趣的发现是,经过特定推理训练的模型在行为上更像人类。
“与基础模型Llama-3.3-70B相比,经过推理优化的衍生模型DeepSeek-R1虽然准确率下降了约7个百分点,但其与人类行为模式的相似度却提升了2.6倍。这表明,鼓励模型进行逐步推理可能会使其犯错的方式更像人类,代价是整体性能的适度下降。”
这项研究暗示,随着AI系统变得越来越复杂和强大,它们在行为上与人类的相似度也越来越高。
通过数据增强构建的电路设计大模型
复旦大学的研究人员发布了AnalogSeeker,这是一个专注于模拟电路设计的开源大语言模型。该模型基于Qwen2.5-32B-Instruct,通过巧妙的数据处理方法,使其在专业领域的性能表现出色。
该模型的成功关键在于其创新的数据策略。
- 初始数据: 研究人员从20本模拟电路设计教科书中提取了仅 726万 个词元(token)的初始数据。
- 数据增强: 他们利用这些初始数据,通过自举(bootstrapping)的方式生成了一个包含15,310个问答条目的新数据集,将数据量扩大了15倍,达到 1.12亿 个词元。
- 显著成果: 经过微调后,AnalogSeeker的准确率达到了 85.04%,比原始模型提升了15.67%,性能与DeepSeek-v3和GPT-4o等更大规模的通用模型相当。
这项工作展示了如何将大型语言模型应用于高度专业的科学领域,为领域专家创造能够加速其工作流程的强大工具。
这类专业模型的出现,标志着AI正从通用走向专用,并有望在各个科学领域引发效率革命。
谷歌发布超小型高效语言模型
谷歌发布了Gemma 3,这是一款参数量仅为 270M 的超小型语言模型,专为在手机等小型设备上高效运行而设计。
这款模型的发布是AI技术“工业化”趋势的体现,即科技公司将从前沿模型中学到的经验,应用于制造极其小巧、紧凑的专用模型。
- 目标场景: 适用于需要处理高流量、定义明确的任务,如情感分析或创意写作。
- 核心优势: 优化了低延迟响应和能源效率。谷歌内部测试显示,在Pixel 9 Pro上进行25次对话仅消耗了 0.75% 的电量。
- 生态定位: AI技术正像一个新物种,通过填补每一个可用的“生态位”来扩散。Gemma 3这样的模型正是为了占据低功耗、高效率的设备端应用场景。
可以预见,像Gemma 3这样的小型模型将很快出现在我们意想不到的各种应用和服务中。