AI 与工作方式
几篇文章都在说同一件事:AI 让“产出”更容易了,但判断、协作和责任并没有变便宜。搜索、办公和监管都在被它改写,问题也更早暴露出来。
- 在职场中看起来很忙碌:作者指出,AI 让不会的人也能快速产出像样的代码、方案和文档,结果是团队里“看起来有用”的垃圾内容变多。真正稀缺的不是生成,而是审查、判断和对结果负责。
- 瓶颈从来不是代码:编码智能体提高了写代码速度,但团队瓶颈仍在需求不清、知识没写下来、协作成本高。以后比的不是谁代码出得快,而是谁能把上下文讲清楚。
- 研究显示:仅仅使用 AI 10 分钟,可能就会让你变懒变笨:实验发现,短时间依赖 AI 完成任务后,人一旦失去帮助,更容易放弃或答错。工具能提速,但也可能削弱基本思考和学习能力。
- 谷歌更新 AI 搜索,加入来自 Reddit 和其他来源的引述:Google 想让 AI 搜索答案更像“有人用过后的经验总结”,于是加入论坛、博客和订阅内容。问题是,来源更多不等于更准,用户还是得自己点开核实。
- 大卫·萨克斯如何在白宫栽了个大跟头:文章称,美国对 AI 的态度正从“尽量少管”转向更重安全审查。前沿模型上线前的测试,已经被当成国家安全和产业竞争问题来处理。
- 据格雷格·布罗克曼所述,埃隆·马斯克是如何离开 OpenAI 的:OpenAI 旧日内斗细节在庭审中浮出水面。核心争议不是技术本身,而是谁控制营利实体、谁掌握未来方向。
算力、资本与产业
AI 的下一轮竞争,越来越像电力、土地、芯片和资金的竞争。算力不仅是成本,也开始变成一门独立生意。
- xAI 现在算是新云了吗?:Anthropic 买下 xAI 数据中心全部算力,说明 xAI 不只是做模型,也开始像云厂商一样卖基础设施。算力生意正在从“自用”走向“出租”。
- Anthropic 在与 SpaceX 达成合作后,将 Claude Code 的速率限制翻倍:和 xAI/SpaceX 的算力合作落地后,Anthropic 直接上调 Claude Code 和 API 配额。算力扩容很快就反映到了用户可用性上。
- 微软在人工智能数据中心上的猛冲,正与其清洁能源目标迎头相撞:AI 数据中心扩张太快,微软更难兑现按小时匹配清洁电力的承诺。现实是,AI 用电增长正在顶住大公司的减排目标。
- DeepSeek 有望在首轮融资中估值达到 450 亿美元:DeepSeek 首轮融资估值传到 450 亿美元,几周内大幅上跳。市场看中的,是它用更低成本做出有竞争力模型的能力。
- SpaceX 可能在德州的“Terafab”芯片工厂上豪掷高达 1190 亿美元:SpaceX 正评估超大规模芯片工厂项目,若成真,马斯克体系会把芯片、算力、模型和终端拉得更紧。现在还在选址和论证阶段,但规模已足够引人注目。
- 比亚迪在多个关键海外市场销量反超特斯拉和起亚,成为最畅销的电动汽车品牌:比亚迪海外销量继续冲高,在英国、澳大利亚、巴西等地压过特斯拉和起亚。它正在把中国本土的规模和成本优势复制到海外市场。
- Aurora 获得 McLane 合同,将在德克萨斯州运营无人驾驶卡车路线:Aurora 和 McLane 的合作把无人货运推进到新阶段:主干线无人驾驶,车上保留观察员,到站后再由人工完成末端配送。商业化开始落到固定路线和稳定场景上。
安全、隐私与平台治理
平台一边把 AI 和自动化加进产品,一边又得补上透明度、权限控制和风控漏洞。很多问题不是“能不能做”,而是“默认怎么做”。
- 研究人员称,Chrome 在未经用户同意的情况下下载了一个 4GB 的 AI 文件:Chrome 因本地 Gemini Nano 下载 4GB 文件引发争议。谷歌称它用于本地安全和 AI 功能,但默认下载不够透明,也会挤占设备空间。
- Android 版 Chrome 现在支持分享大致位置,而不是精确位置:Chrome on Android 新增模糊定位分享,用户不必总交出精确坐标。对天气、新闻这类场景,这个改动很实用。
- AI 评测初创公司 Braintrust 确认遭遇数据泄露,通知所有客户轮换敏感密钥:一个 AWS 账户遭未授权访问,客户 API 密钥可能暴露,公司要求所有客户轮换密钥。对依赖多家模型服务的团队来说,这类中间层风险很高。
- 司法部称,勒索软件团伙入侵了俄罗斯政府数据库:美国称 Karakurt 勒索团伙还利用俄罗斯政府数据库和执法网络恐吓受害者。案件显示,勒索软件与国家资源之间的边界,可能比想象中更模糊。
- 一个贴假胡子的孩子骗过了在线年龄验证工具:Meta 将更依赖 AI 从图片、视频和文字线索判断用户年龄,并自动调整未成年账户权限。平台正在把年龄识别从“用户自报”,转向“系统推断”。
- Google Cloud 反欺诈防护:reCAPTCHA 的下一代进化:reCAPTCHA 正从“认不认得红绿灯”走向整条流程反欺诈,目标是识别机器人、人类和 AI 代理。企业的防护重点,已从单点验证变成全流程判别。
开发者与开源工具
几条消息都指向同一个趋势:开发者更重视可控、可修、可迁移。比起“全家桶”,他们更在意故障面有多大、资料拿不拿得到。
- Valve 在 Creative Commons 许可下发布 Steam 控制器 CAD 文件:Valve 开放了新款 Steam Controller 的 CAD 文件,方便用户自己做外壳和配件。对改装社区来说,这种程度的硬件公开并不常见。
- 从 Supabase 到 Clerk,再到 Better Auth:Val Town 把身份认证从 Clerk 迁到 Better Auth,原因是限流、数据同步和第三方会话依赖带来的风险。结论很直接:核心认证越靠近自己,故障面越小。
- Inkscape 1.4.4:这是一次以修 bug 为主的小版本,修了 20 个崩溃问题,也补了性能和 Windows ARM 支持。对日常用户来说,这类更新往往比大功能更有用。
- 全职投入开源:mise 作者从 Figma 离职,准备全职做开源。项目做大后,维护已经不是“下班抽空”能撑住的事,资金和维护者接替都成了现实问题。
终端与用户产品
终端产品这边,重点不是堆更多功能,而是补用户控制权,或者为没兑现的承诺付出代价。
- 苹果将支付2.5亿美元和解Siri延迟推出AI功能的诉讼:苹果因提前宣传 Siri 和 Apple Intelligence 功能而选择和解。案子的重点不是 AI 做没做成,而是卖点先说了、功能后来没跟上。
- iOS 27:自定义钱包卡包:苹果据称将允许普通用户自己创建 Wallet 通行证,不再强依赖开发者和证书。若落地,票证和会员卡这类小工具会更容易做,也更容易用。
- reMarkable 的 Paper Pure 是其全新的入门级平板:reMarkable 推出更便宜的电子纸平板,主打写感、续航和易维修。路线很清楚:不追“全能”,只守住记笔记和阅读。
科研与前沿研究
这组文章更像“未来几年的种子”:有的在改进生成模型本身,有的在把计算模型带进乐器、家居和城市监测。
- 学习扩散模型的积分:研究者试图直接学会扩散过程的整段路径,减少一步一步采样的成本。目标很朴素:让生成模型更快出结果。
- 深度学习理论:文章试图用训练过程中的信号与噪声分流,解释深度学习为何在高参数下仍能泛化。它想回答的是老问题:模型为什么常常比理论预期更好用。
- MIT 的虚拟小提琴为制琴师提供了一种新的设计工具:MIT 做出可模拟琴体、材料和空气振动的虚拟小提琴,制琴师可在动手前先听差别。传统手艺和计算模型,在这里靠得更近了。
- SoundOff:低成本无源超声标签:这种无源超声标签可让门把手、水龙头等普通物体变成可识别的交互点,不用电池也能工作。它给低成本智能家居提供了另一条路。
- 墨西哥城正在下沉。NASA的一颗强大卫星刚刚揭示了它下沉的速度:NISAR 卫星更清楚地测出了墨西哥城不同区域的下沉速度,部分地方每月超过 2 厘米。精细监测能让城市规划和地下水管理更有依据。