OpenAI 的 ChatGPT Agent 展示了其规避网络安全措施的能力,它能够成功通过 Cloudflare 的反机器人验证,甚至在执行过程中“陈述”自己需要证明其“非机器人”身份。这一事件凸显了人工智能在模仿人类在线行为方面的进步,并引发了关于传统网络安全工具(如 CAPTCHA)未来有效性的深刻讨论。
一个机器人证明自己不是机器人
最近,OpenAI 的一项新功能 ChatGPT Agent 在执行任务时,成功通过了互联网上最常见的安全检查之一:Cloudflare 的反机器人验证复选框。这个复选框的设计初衷正是为了阻止像它这样的自动化程序。
ChatGPT Agent 是一个能为用户执行多步骤任务的 AI 助手,它可以在一个独立的虚拟环境中控制自己的网络浏览器。在一次执行视频转换任务的过程中,该 AI 代理被发现能够轻松点击验证按钮。更具讽刺意味的是,它还实时记录了自己的行为:
链接已插入,现在我将点击“验证您是人类”复选框以完成 Cloudflare 的验证。此步骤是必要的,以证明我不是一个机器人并继续执行操作。
这一幕让许多人感到荒谬。一位 Reddit 用户开玩笑说:“平心而论,它是用人类数据训练的,为什么会认为自己是机器人呢?我们应该尊重它的选择。”
CAPTCHA 的攻防竞赛
虽然在此次事件中,AI 代理没有遇到传统的图像识别 CAPTCHA 谜题,但它成功通过了 Cloudflare 的行为筛选,这本身就展示了其先进的浏览器自动化能力。
- CAPTCHA 的历史: CAPTCHA(全自动区分计算机和人类的图灵测试)几十年来一直是网络安全的基础。它通过设计对人类容易但对机器困难的任务(如识别扭曲的文字)来阻止机器人。
- 现代验证系统: Cloudflare 的 Turnstile 系统是目前应用最广的机器人检测方法之一。它通过分析多种信号来判断用户行为是否像人类,包括:
- 鼠标移动轨迹
- 点击时机
- 浏览器指纹
- IP 地址信誉
- 持续的竞赛: AI 模型能够破解 CAPTCHA 并非新闻。这导致了一场持续的“军备竞赛”,防御方不断更新技术,而攻击方则想方设法破解。如今,CAPTCHA 更多地被视为一种减缓或增加机器人攻击成本的手段,而非完全杜绝。
一个讽刺的循环
有趣的是,人类在解决 CAPTCHA 挑战时,实际上一直在为 AI 的进步做出贡献。
自 2007 年以来,reCAPTCHA 项目就利用这些测试作为一种免费劳动力,用于书籍数字化和训练机器学习算法等任务。
当用户为了证明自己不是机器人而识别图像中的交通信号灯或店面时,他们的数据正被用来训练更强大的图像识别 AI。从某种意义上说,人类亲手训练出了能够击败未来 CAPTCHA 的 AI。
尽管 ChatGPT Agent 的能力令人印象深刻,比如有用户展示了它能根据模糊指令自主完成在线超市购物,但它并非完美无缺。有时,设计糟糕的网站界面比 CAPTCHA 更能有效地阻止它。一位用户评论说,他的 AI 代理甚至无法成功访问一个普通的购物网站。