Agentic AI:商业红利与身份风险并存——CYBERARK赞助内容
随着企业开始采用能够自主决策和学习的智能 AI 代理,一种新的身份安全挑战随之而来。这些 AI 代理兼具人类身份的复杂性和机器身份的特征,其数量的快速增长使得管理其访问权限和安全风险变得异常复杂。如果给予过宽的权限或缺乏有效的安全控制,它们可能会带来重大的安全隐患。因此,企业必须将这些 AI 身份纳入统一的身份安全策略中,通过确保全面的可见性、强有力的认证和最小权限原则,来防范潜在威胁,保障组织安全。
一种新的身份类别:AI 代理
身份安全的核心是识别、管理和保护组织内的所有身份,以降低相关风险。过去,安全团队主要关注人类身份,后来扩展到保护密钥和证书的机器身份。现在,最新的挑战是 “代理式 AI” (Agentic AI)。
从定义上看,AI 代理是机器,但它们学习和决策的能力更接近人类。它们可以独立工作,几乎不需要人类的监督。这使得它们不仅仅是传统的机器身份,而是一种融合了人类与机器安全挑战的全新身份类别。
“到 2028 年,33% 的企业软件应用将包含代理式 AI,而 2024 年这一比例还不到 1%。” —— Gartner
新身份带来的挑战
将 AI 代理引入企业环境会带来一系列独特的安全问题,这些问题源于它们的规模、能力和新颖性。
规模与监督: 传统机器身份的数量已经远超人类身份。AI 代理的爆炸式增长将使身份的注册、授权、管理和停用等流程变得极其复杂。
权限过宽的风险: 为了快速部署,组织可能会授予 AI 代理过于宽泛的权限。一旦该代理被攻破,它可能会造成巨大的破坏。
缺乏安全意识: AI 代理无法像人类一样感知未被预设的“可疑情况”。它们虽然可以被编程来检测异常,但自身也可能存在被利用的漏洞。
不受监管与“影子 AI”: 目前,AI 代理的使用尚无统一标准。任何人都可以构建一个 AI 代理,这意味着许多代理可能缺乏必要的安全控制。员工也可能在 IT 部门不知情的情况下使用未经批准的 AI 代理(即 “影子 AI”),给组织带来未知的风险。
发展你的身份安全策略
应对 AI 代理风险的关键,是将管理人类和机器身份的安全原则扩展到它们身上。一个适用于所有身份类型的安全框架必须能够适应 AI 带来的变化。
企业现在就应该评估自己当前的身份安全方法,并思考如何进行调整。
核心安全原则
一个有效的安全框架必须包含以下几个关键要素:
- 全面的可见性: 能够清晰地看到组织中存在哪些 AI 身份以及它们的全部活动。
- 强大的认证机制: 确保每个 AI 代理的身份都经过严格验证。
- 最小权限访问: 严格执行 “最小权限” 和 “即时访问” (Just-in-Time) 控制,确保 AI 代理仅在需要时才能获得完成任务所必需的最低权限。
现在开始规划如何将 AI 身份纳入管理,将为企业在迎接即将到来的 AI 代理浪潮时做好充分准备。