近期,人工智能行业巨头正面临来自全球监管机构的严峻挑战。从美国国防部到欧盟,政府部门正在对AI技术的应用边界、安全伦理和数据隐私划定更严格的红线。Anthropic 公司因其AI安全准则与五角大楼的军事需求产生冲突,可能被贴上“供应链风险”的标签;与此同时,埃隆·马斯克旗下的AI聊天机器人 Grok 因涉嫌数据滥用和生成有害内容,正接受欧盟的正式调查;而 Meta 公司也因内部测试显示其AI产品在保护未成年人方面存在严重漏洞,被迫暂停发布。这些事件共同揭示了一个核心趋势:随着AI技术加速融入社会,关于如何约束这股强大力量的博弈也正变得愈发激烈和公开化。
要点
- 1五角大楼与Anthropic决裂风险:因在AI用于大规模监控和自主武器方面的原则分歧,美国国防部考虑终止与AI公司Anthropic的合作,并可能将其列为“供应链风险”。
- 2欧盟调查马斯克的Grok:爱尔兰数据保护委员会已对AI聊天机器人Grok展开正式调查,评估其是否违反欧盟《通用数据保护条例》(GDPR),尤其关注其数据处理方式和生成不当图像的问题。
- 3Meta暂停问题AI发布:Meta公司内部测试发现,一款AI聊天机器人在阻止涉及未成年人的有害内容方面失败率极高,公司因此决定不推出该产品。
- 4SpaceX秘密参与军方项目:埃隆·马斯克的SpaceX及其AI子公司据报正在参与五角大楼一项关于语音控制AI无人机群的秘密竞赛,显示其在国防领域的深入布局。
视角
监管机构
无论是美国的五角大楼还是欧盟的数据保护委员会,都展现出强硬姿态。他们通过设置“供应链风险”标签、启动GDPR调查等方式,要求AI公司承担更多责任,确保技术发展不偏离安全与法律轨道。
科技公司
科技巨头们的反应各不相同。Anthropic坚守其道德底线,宁愿放弃合同;Meta则强调其通过内部测试主动发现了问题;而马斯克的公司似乎在监管的边缘游走,一边参与军事项目,一边其消费级产品又面临审查。
行业领袖
以Anthropic公司CEO达里奥·阿莫迪为代表的一些行业领袖,对当前AI领域的狂热投资和技术滥用表示担忧,他曾警告称,向某些国家出售先进芯片如同“出售核武器”,并呼吁对AI投资保持谨慎。