Synth Daily

德勤豪赌AI,虽因AI应用被迫大额退款

德勤公司正在大力投资人工智能,宣布与 AI 公司 Anthropic 合作,为其全球员工部署 Claude 聊天机器人。然而,就在同一天,该公司却因一份政府报告中含有 AI 生成的虚假信息而被迫退款。这一事件凸显了企业在拥抱 AI 技术时所面临的矛盾:既要抓住其带来的机遇,又要应对其不可靠性所带来的实际风险。

机遇与挑战并存

德勤在大力推广其 AI 应用的同一天,却因 AI 生成的错误内容而向政府退款,这一时间上的巧合凸显了当前企业应用 AI 的普遍困境。

这起事件表明,尽管德勤决心将 AI 融入其核心业务,但它仍在努力解决这项技术固有的缺陷。并且,面临这种挑战的远不止德勤一家公司。

与 Anthropic 的企业合作

德勤宣布计划向其全球近 50 万名员工推广 Anthropic 公司的聊天机器人 Claude。这是 Anthropic 迄今为止最大规模的企业部署。双方合作的目标包括:

  • 创建合规产品:为金融服务、医疗保健和公共服务等受监管行业开发专门的 AI 工具。
  • 打造 AI “角色”:根据公司内不同部门(如会计师、软件开发人员)的需求,创建特定的 AI 代理。

“我们对负责任 AI 的态度高度一致,我们可以共同重塑未来十年企业的运营方式。对于许多客户和我们自身的 AI 转型而言,Claude 仍然是领先的选择。” —— 德勤全球技术与生态系统联盟负责人 Ranjit Bawa

尽管合作的财务条款未被披露,但此举清晰地表明了 AI 技术正如何深入到现代工作与生活的方方面面。

“AI 幻觉”的代价

与上述宏大计划形成鲜明对比的是,德勤因一份包含 AI 错误的报告而被迫退款。

  • 项目:一份为澳大利亚就业与劳资关系部撰写的价值 43.9 万澳元的“独立保证审查”报告。
  • 问题:报告中引用了多份 根本不存在的学术报告,这是典型的“AI 幻觉”现象。
  • 后果:德勤需要退还政府合同的最后一笔款项,并发布了报告的修正版。

一个普遍存在的问题

在工作中因使用不准确的 AI 信息而陷入困境,德勤并非个例。近几个月,类似事件时有发生:

  • 新闻业:《芝加哥太阳时报》曾发布一份由 AI 生成的夏季阅读书单,但读者发现其中包含了一些虚构的书名。
  • 科技巨头:据报道,亚马逊内部的 AI 生产力工具 Q Business 在其第一年的运营中也饱受准确性问题的困扰。