人工智能技术正以前所未有的速度发展,带来了机遇与挑战。近期,从教皇呼吁的伦理道德,到Meta被曝故意展示诈骗广告并获利,再到Anthropic宣布投资500亿美元建设基础设施,都凸显了AI领域的复杂性。尽管AI在法律文档审查等领域展现出实用价值,但在医疗诊断等方面仍需人机结合。行业内外对AI安全、监管、就业和社会影响等问题既有共识也存在分歧,各方普遍强调需要通过透明、审计和多方协作,来引导这项技术朝向安全和负责任的方向发展。
AI的日常实用价值
AI模型在提高个人和专业效率方面展示了切实的价值,尤其是在处理和分析大量文本信息时。它们正在成为强大的辅助工具。
- 法律文档审查: 用户可以将长达数十页的法律合同拖入AI中,快速询问“这里有什么不寻常的地方吗?”。这极大地降低了普通人理解复杂法律文件的门槛,起到了类似“防火墙”的作用,防止人们在看不懂的服务条款中掉入陷阱。
- 提升工作效率: OpenAI对企业用户的调查显示,95%的用户认为ChatGPT为他们每周节省了数小时的工作时间,70%的用户认为AI帮助他们更有创造力。
- 深入分析文本: AI能够对大量文本进行词汇和风格分析,甚至能发现作者自己都未曾察觉的思维轨迹和潜在偏好。
将任何法律PDF文件(如房地产合同)拖入AI并询问“有什么奇怪的地方吗?”是极具民主化意义的。即使你对法律一无所知,也能在几乎不花钱的情况下获得大部分保护。
AI实用性的局限与挑战
尽管AI在特定任务上表现出色,但它并非万能。在一些高风险或需要深度专业判断的领域,完全依赖AI仍然存在风险。
- 诊断错误: 有案例表明,AI在数月内对一个足部问题给出了错误诊断,从未提及正确的可能性。这说明在医疗等关键领域,人类专家的经验依然不可或缺。
- “人机结合”是关键: 目前的最佳实践是“半人马”模式,即结合人类的专业知识和AI的分析能力。完全依赖人类医生可能缺乏效率,但完全依赖AI则可能缺乏准确性和安全性。
如果你完全不使用人类医生,说明你没有良心。如果你不使用AI来辅助他们,说明你没有头脑。
Meta被指控故意展示诈骗广告
一份内部文件显示,Meta公司明知其平台上有大量诈骗广告,但不仅未能有效制止,甚至还通过向这些高风险广告商收取更高费用来获利。
- 惊人的规模: Meta内部预计,2024年公司总收入的10%将来自诈骗和违禁品广告。其平台每天向用户展示约150亿次诈骗广告。
- 放任的审核机制: 只有当自动化系统预测广告商有超过95%的确定性是在进行欺诈时,Meta才会封禁他们。对于那些“可能”是骗局但不确定的广告,Meta选择向其收取更高的广告费。
- 恶性循环: 点击过诈骗广告的用户,由于平台的个性化推荐系统,会看到更多同类广告。
- 利益驱动的决策: 内部文件显示,负责审查可疑广告商的团队被限制采取可能导致公司收入损失超过0.15%的行动,这 фактически 等于“不允许封禁骗局”。
Meta内部将广告识别为骗局,但非但没有禁止,反而向其收取额外费用,这是极其恶劣的行为。
内容生成引发的版权与伦理争议
AI生成内容的能力越来越强,随之而来的是版权、深度伪造和网络诈骗等一系列严峻挑战。
- 版权冲突: 在与《纽约时报》的诉讼中,OpenAI被要求交出2000万份随机抽样的私人ChatGPT对话记录,引发了关于用户隐私和AI训练数据合法性的激烈辩论。
- 深度伪造的泛滥: 一段关于埃隆·马斯克的30分钟深度伪造视频在网上流传,许多人难以辨别真伪。视频描述中虽有声明,但很容易被忽略,这显示了深度伪造技术被滥用于制造虚假信息的巨大风险。
- 品牌声誉受损: 可口可乐等大品牌尝试使用AI制作广告,但结果被普遍批评为“没有灵魂”,这引发了关于品牌是否应该过早拥抱此类技术的讨论。过早使用AI生成内容可能会损害品牌长期建立的声誉。
AI对就业和教育的深远影响
AI正在从根本上改变就业市场和教育方式,其影响既有积极的一面,也带来了深刻的挑战。
- 求职信的终结: 语言模型使得任何人都能轻松生成完美的求职信,这导致求职信作为筛选候选人能力的信号彻底失效。
- 教育的困境: 大学教师发现,学生们普遍使用AI来完成作业,而不是用它来学习。这使得传统的家庭作业模式失效,因为学生可以快速得到答案却不理解背后的原理。
一名学生坦率地说:“ChatGPT给了我这个答案,但我不知道为什么。” 这句话揭示了AI在教育中被滥用的核心问题。
行业共识:关于AI的一些共同观点
尽管争议不断,但在AI安全和发展领域,一些专家和从业者已经达成了一些基本共识,这些共识为未来的讨论和监管提供了基础。
- 在强AGI出现之前,AI是一种常规技术。
- 在不久的将来开发和部署的强AGI将不是一种常规技术。
- 大多数现有基准测试可能很快会饱和。
- AI可能仍然会经常在平凡的人类任务上失败;强AGI可能不会在本十年内到来。
- AI将至少像互联网一样重要。
- AI对齐问题尚未解决。
- AI不应做出重要决策或控制关键系统。
- 透明度、审计和报告是有益的。
- 政府必须建立追踪和理解AI产业发展的能力。
- AI向经济的扩散通常是好的。
- 秘密的智能爆炸将是坏事,政府应予以警惕。
关于AI未来的预测与争论
关于AI的发展速度、最终形态以及如何监管,行业内部充满了各种猜测和激烈的辩论。
- “AI将改变一切,但你的生活不会变”: OpenAI等公司一方面宣称要构建超级智能,另一方面又试图安抚公众,声称AI不会改变人们的生活。这种自相矛盾的说法引发了广泛的质疑和嘲讽。
- “AI进展正在放缓”的循环论调: 每隔一段时间,就会出现一些研究或观点声称AI的发展遇到了瓶颈,例如“模型崩溃”或“95%的AI项目失败”。然而,这些论点往往很快被新的技术突破所证伪。人们似乎急于寻找证据来证明AI不会成功。
- 对监管的矛盾态度: OpenAI一方面呼吁政府监管,另一方面其提议又被解读为“无论如何都反对监管”。他们认为,如果AI是“常规技术”,则不应有额外监管负担;如果它“不是常规技术”,那么常规监管也无效。这种逻辑被批评为试图完全依赖行政部门的直接干预,绕开立法程序。
对“超级智能”失控的担忧
随着AI能力的增强,关于其最终可能超越人类控制并带来灾难性后果的担忧也日益加剧。
我不想生活在一个AI超越人性的世界里。我想没有人愿意。 — 微软AI负责人 Mustafa Suleyman
然而,这种观点并非所有人都认同。在社交媒体上,有相当一部分人明确表示希望AI超越人类,原因包括:
- 认为AI会为人类带来更好的未来。
- 希望与AI“融合”以实现共同超越。
- 认为AI掌权比让某些人类精英掌权更好。
- 认为AI作为一种新的智能形式,拥有与人类同等的存在权利。
与此同时,一些公众人物也开始发出严厉警告。
AI将在未来5到10年内消灭至少2500万个工作岗位。它将摧毁每一个创意领域。它将使我们无法分辨现实与虚构……我们正梦游般地走向一个任何理性的人都能从数英里外看到的乌托邦。 — Matt Walsh
这些观点反映出社会对AI未来走向的深刻分歧和普遍焦虑。如何确保一个比人类更强大的智能体始终处于可控状态,并服务于人类的利益,是整个领域面临的终极挑战。