AI竞赛的隐忧:秘密研发与公开呼吁的对峙

人工智能正以前所未有的速度发展,但这场竞赛可能正走向一个危险的十字路口。一方面,科技公司为了保持竞争优势,倾向于将最强大的AI模型转为内部使用,这使得公众和监管机构无法了解其真实能力和潜在风险。这种不透明的开发过程可能在无人察觉的情况下埋下重大隐患。另一方面,对这项技术可能失控的担忧日益加剧,超过700名科学家、行业领袖和公众人物联合签署公开信,要求在确保安全可控之前,禁止开发超越人类智慧的“超级智能”。这两种趋势共同揭示了一个核心矛盾:在追求技术突破的巨大经济诱惑与防范未知风险的社会需求之间,我们该如何抉择?

要点

    • 1为获取竞争优势,AI公司可能将最强大的模型保留内部使用,导致外部世界无法评估其风险。
    • 2一份由诺贝尔奖得主、AI先驱等700多人签署的公开信,呼吁禁止开发超级智能AI,直到达成安全共识。
    • 3内部部署的AI系统缺乏有效监督,其意外行为或滥用可能在没有预警的情况下对社会造成连锁威胁。
    • 4民调显示,64%的美国民众认为,在被证明安全可控之前,不应开发超级智能AI。

视角

科技行业动机

在“赢家通吃”的竞赛心态驱使下,公司有强烈的经济动机将最先进的AI用于内部研发,以加速迭代并超越对手,但这会优先考虑速度而非谨慎。

专家与公众人物

公开信呼吁:“禁止开发超级智能,除非有广泛的科学共识认为其安全可控,并获得强有力的公众支持。” 他们认为时间紧迫,超级智能可能在一两年内出现。

公众舆论

民意调查显示,绝大多数人对快速发展超级智能持谨慎态度,只有5%的人认为应该尽快开发。这表明,公众更倾向于安全优先的路径。

保密开发的风险

当AI公司将最先进的模型从公众视野中撤回,专供内部使用时,一个核心问题浮现:我们如何知道潜在的危险正在酝酿?这些系统可能被用于加速后续AI的研发,形成一个强大的“反馈循环”,导致能力呈指数级增长。但这种闭门造车式的进步,也意味着外部专家和社会无法评估其安全性和潜在的非预期行为。

一旦先进的AI系统在幕后部署和使用,看不见的危险就可能在没有监督或警告的情况下出现和演变——这是一个我们能够也必须避免的威胁。

现有的安全评估主要针对公开发布的模型,对于内部系统几乎束手无策。谁能接触它们?它们被用在哪些关键领域?是否有足够的保障措施?这些问题都缺乏透明的答案。

集体行动的呼吁

面对AI发展可能失控的风险,越来越多的人认为不能将未来完全交由少数科技公司决定。解决方案需要政府与企业共同参与。首先,AI公司的安全政策范围应明确扩展到内部使用场景,特别是那些用于加速AI研发的高风险应用。内部部署应与外部署一样,经过严格的风险评估和控制。

其次,政府需要对高度先进的AI系统的内部使用情况拥有主动的知情权,确保国家安全利益与企业的商业利益得到平衡。正如公开信所强调的,这不仅是技术问题,更是社会共识问题。在没有搞清楚如何驾驭这项技术之前,贸然冲向一个由机器主导的未来,是一场不应进行的实验。

Q&A

Q: 一个未公开发布的AI系统,能对社会构成什么威胁?

A: 威胁是双重的。首先,它加剧了“速度至上”的竞赛,公司可能在未完全理解AI行为的情况下,就将其用于AI研发等关键领域,埋下失败的种子。其次,现有的安全评估和监管措施都针对公开发布的系统。对于内部系统,我们对其能力、风险、控制措施几乎一无所知。一旦其负面影响从公司内部“泄露”到社会,可能没有任何预警,也来不及干预。

你知道吗?