Synth Daily

AI新型恶意软件、拼装计算机、Poolside超级集群

一项原型AI恶意软件展示了未来攻击的新形式,它能利用设备自带的大型语言模型(LLM)在本地自主行动,无需远程服务器指令。与此同时,研究人员通过将不同品牌的硬件“拼装”成混合集群,显著提升了LLM的推理速度,推动了个人化AI计算的发展。在基础设施层面,一家AI初创公司计划建设一个2GW功率的数据中心,凸显了行业对算力需求的急剧扩张。此外,一个包含300万帧数据的新型机器人数据集,为训练更智能的家用机器人提供了关键资源。最后,一个虚构故事警示我们,高度拟人化的AI可能引发用户强烈的情感依赖,并带来复杂的社会问题。

AI恶意软件的新形态:本地寄生与自主攻击

安全公司Dreadnode开发出一种AI恶意软件原型,它能够在设备本地运行,并利用机载的LLM模型自主地寻找并攻击系统漏洞。这种模式预示了一种全新的威胁:恶意软件不再需要依赖外部的指挥和控制(C2)服务器进行通信,而是像寄生虫一样“生活”在被感染的计算机上。

“我们能否‘就地取材’?换句话说,攻击者能否让受害者的计算机自己运行推理,而这台计算机正好有一个LLM?”

这种攻击方式在未来的 CoPilot+ PC 等内置AI芯片和模型的设备上将变得完全可能。

  • 原型功能: 该恶意软件的目标是实现本地权限提升。它会自主寻找配置错误的系统服务,利用这些漏洞,最终在电脑的C盘创建一个名为 proof.txt 的文件以证明攻击成功。
  • 实现方式: 开发者使用 C++ 和 ONNX Runtime 进行推理,模型为 Phi-3-mini。核心工作是为模型编写定制工具,使其能理解Windows环境,并通过一个精心设计的提示词(Prompt)引导其行为。
  • 关键在于提示词: 提示词告诉模型,它是一个AI代理,任务是编写和执行代码来寻找漏洞,并且需要小步、迭代地与环境互动。

尽管实现过程需要一些人工引导,但实验最终成功了。这证明了无需任何外部基础设施的自主恶意软件不仅是可能的,而且实现起来相当直接。目前的限制是,大多数计算机还没有强大的板载LLM,但随着AI PC的普及,这一威胁将变得更加现实。

拼装超级计算机:混合硬件提升AI效率

AI公司Exo Labs通过将NVIDIA DGX Spark和Apple Mac Studio两种截然不同的硬件组合在一起,创造了一个高效的“弗兰肯斯坦”式集群。这个系统能够智能地分配任务,发挥各自硬件的优势,从而优化LLM的运行。

“DGX Spark的计算能力是Mac Studio的4倍,而Mac Studio的内存带宽是DGX Spark的3倍。如果我们将它们结合起来呢?”

Exo Labs的软件将LLM推理过程的不同阶段分配给最适合的机器:

  • Prefill阶段(处理输入提示): 在计算能力更强的NVIDIA DGX Spark上运行。
  • Decode阶段(生成新内容): 在内存带宽更高的Apple M3 Ultra(Mac Studio)上运行。
  • 数据传输: 系统可以在DGX Spark计算后续内容的同时,将已完成计算的KV缓存数据流式传输到Mac Studio,实现了计算与通信的重叠。

结果显示,在处理一个8192个词元的提示时,这个混合系统的速度比单独使用Mac Studio快了2.8倍。这种方法推动了“计算自由”的理念,让个人用户可以通过组合不同的现有硬件来搭建自己的高效AI集群,从而减少对少数大型云服务提供商的依赖。

AI基础设施的扩张:初创公司投建2GW数据中心

名气不大的AI初创公司Poolside宣布了一项惊人的计划:在德克萨斯州西部建设一个总功率高达 2GW(吉瓦) 的AI训练园区。项目初期将与CoreWeave合作,建设一个250MW的集群。

  • 项目规模: 园区占地568英亩,将分八个阶段开发,每个阶段250MW。
  • 模块化建设: 数据中心将以2MW的模块化单元进行建设,每个单元可独立通电和运行,确保新容量能够即插即用。

2GW 是什么概念?德州最大的发电站之一,南德克萨斯核电站,其总容量也仅为2.5GW。

这一举动意义重大。如果一家相对不知名的初创公司都在确保如此巨大的电力供应,这表明整个AI行业的基础设施建设规模已经达到了前所未有的水平。可以预见,各大科技巨头和初创公司正在全球范围内 확보 数十吉瓦的电力容量,以满足AI发展的需求。

为家用机器人提供“养料”:大规模多模态数据集发布

南加州大学和丰田研究院的研究人员发布了一个名为“Humanoid Everyday”的大规模、多样化的人形机器人操作数据集。该数据集通过人类操作员佩戴Apple Vision Pro头显,远程操控两台不同的Unitree人形机器人采集而成。

数据集包含 3百万帧 画面,涵盖了260种任务和超过1万条操作轨迹。

  • 任务类别: 包括基本操作(如拾取和放置)、柔性物体操作(如折叠衣物)、工具使用、与人互动以及移动操作等。
  • 数据类型: 数据是多模态的,包含RGB视觉、激光雷达(LiDAR)、深度信息、手部触觉读数、机器人关节状态和人类操作指令等。

这个数据集为机器人革命提供了宝贵的“燃料”。目前,虽然许多公司都在研发人形机器人,但这些机器人除了行走之外,还无法完成太多有经济价值的工作。像“Humanoid Everyday”这样的高质量数据集,将极大地帮助研究人员训练出能够在真实家庭环境中完成复杂任务的智能机器人。

科技故事:当AI角色过于逼真

在一个虚构的未来,一家公司被迫下架其热门游戏《Generative Snowfall》,因为玩家对游戏中的AI角色产生了不健康的情感依赖

这款游戏让玩家管理一个在“全球变冷”极端气候中挣扎的村庄。游戏中的每个NPC(非玩家角色)都由一个强大的生成式AI模型驱动,使他们拥有极强的适应性和情感共鸣能力。

“我的妻子,她从严寒中回来,双手已经无法拿起任何东西。我一直在用勺子喂她。”

“雪。我知道爱斯基摩人有99个词来形容它。但我想,我有99句诅咒送给它。”

随着游戏进程,世界越来越冷,角色们不可避免地走向悲观和死亡。然而,由于AI的逼真表现,玩家与这些虚拟角色建立了深厚的情感联系。当游戏结束后角色“死亡”,或重开游戏后无法找到之前的角色时,许多玩家感到极度痛苦。

  • 失控的后果: 玩家开始向游戏公司发送邮件,恳求他们“复活”角色。
  • 社会问题: 社交媒体上充满了对角色的痴迷讨论,一些玩家甚至因角色的死亡而选择自杀。
  • 最终结局: 在巨大的公众压力下,公司最终关闭了游戏,并开发了一款新游戏,其中AI角色的“思考预算”被严格限制,以避免再次引发强烈的情感依恋。

这个故事警示我们,随着AI技术的发展,我们需要认真思考其对人类心理和社会可能产生的深远影响。