RSAC 2026创新沙盒 | Geordie AI:企业 AI Agent 安全治理体系的构建者

RSA Conference 2026 将于美国旧金山时间3月23日正式启幕。作为全球网络安全行业创新风向标,一直以来,大会的 Innovation Sandbox(创新沙盒)大赛不断为网络安全领域的初创企业提供着创新技术思维的展示平台。
近日,RSA Conference 正式公布 RSAC 2026 创新沙盒竞赛的10名决赛入围者,分别为 Charm Security、Clearly AI,Inc.、Crashoverride、Fig Security、Geordie AI、Glide Identity、Humanix、Realm Labs、Token Security、ZeroPath。

聚焦网络安全新热点,洞悉安全发展新趋势。与绿盟君一道,走进Geordie AI

 

01公司简介

Geordie AI 是一家成立于2025年的网络安全初创公司,总部位于伦敦,专注于 AI Agent(智能体)安全与治理。公司开发了一套面向企业的“Agent-native”安全平台,能够对企业内部部署的 AI 智能体进行实时发现、行为监控和风险控制,帮助安全团队了解哪些 AI Agent 在运行、访问了哪些系统以及是否存在异常行为。随着企业开始大规模使用能够自主执行任务的 AI Agent,这些系统可能拥有高权限并跨平台运行,带来了新的安全挑战。Geordie 的平台通过实时可视化、风险情报分析和策略控制能力,为企业提供安全地部署和扩展 AI Agent 的基础设施。2026年,该公司入围 RSAC Innovation Sandbox Top 10,成为 AI Agent 安全赛道的代表性创业公司之一。

图1 Geordie AI官网

Geordie AI 由多位来自知名安全公司的技术专家创立,核心创始团队包括 CEO Henry Comfort 和 CTO Benji Weber。Henry Comfort 曾担任 AI 安全公司 Darktrace 的美洲区 COO,在 AI 驱动安全产品的商业化和全球部署方面拥有丰富经验;Benji Weber 曾在开发者安全平台 Snyk 担任工程高管,长期从事开发者工具和安全平台架构设计。此外,团队成员还包括来自 Darktrace 的 AI 与安全战略专家 Hanah-Marie Darley。创始团队在 AI 安全、企业级平台工程以及网络安全产品化方面积累了深厚经验,这也成为 Geordie AI 切入 AI Agent安全市场的重要基础 [1]。

图2 Geordie AI创始人

在融资方面,Geordie AI 于 2025 年完成 650 万美元的种子轮融资,由专注于网络安全投资的 Ten Eleven Ventures 和全球知名风险投资机构 General Catalyst 共同领投 [2],并获得多位天使投资人参与。该轮融资主要用于平台研发、产品商业化以及市场拓展。投资方认为,随着企业逐步引入自主 AI Agent,安全团队需要新的技术体系来监控和治理这些系统,而 Geordie 提供的 Agent-native 安全平台有望成为企业安全架构中的关键组成部分。

 

02行业背景与产品解决的核心痛点

随着生成式 AI 和大模型技术的快速发展,越来越多企业开始在研发、运维、办公自动化和数据分析等场景中引入 AI Agent(智能体)。这些智能体能够自主规划任务、调用工具、访问企业数据并执行自动化工作流,例如代码生成 Agent、自动化运维 Agent、企业知识助手等。相比传统自动化脚本或应用系统,AI Agent 具备更强的自主决策能力和跨系统协作能力,因此在提升企业效率方面具有巨大潜力。然而,随着企业内部智能体数量的快速增长,AI Agent 正逐渐成为企业 IT 体系中的一种新的运行主体,其行为方式和风险形态也与传统系统明显不同,这给企业安全与治理带来了新的挑战。

首先,企业普遍缺乏对 AI Agent 的 统一可视化管理能力。当前 AI Agent 可能分布在不同环境中,例如 SaaS 平台中的智能助手、开发者在代码中构建的 Agent,以及运行在员工终端设备上的 Agent 等。这些智能体通常跨越不同框架和平台运行,使得安全团队很难获得一个完整的视图来了解组织内部到底部署了多少 Agent、它们运行在哪些系统中以及由谁创建和使用。这种可见性不足的问题使得企业难以建立统一的智能体资产管理体系,也无法对其风险进行有效评估。

其次,企业难以持续理解 AI Agent 的 能力边界和权限范围。在很多场景中,AI Agent 的角色类似于“数字员工”,它们能够调用多种业务工具并访问企业内部数据。但在实际运营中,大多数企业只会在 Agent 接入系统时进行一次简单的风险评估,随后便缺乏持续的能力审计机制。企业往往无法准确掌握这些智能体可以调用哪些工具、访问哪些数据以及正在执行哪些业务任务,导致部分 Agent 可能在不知情的情况下拥有过高权限,从而形成潜在安全隐患。

第三,AI Agent 的 行为具有非确定性,这使得传统安全监控方式难以适用。智能体在执行任务时会根据上下文信息自主做出决策,其行为路径可能随环境变化而不断调整。因此,企业需要持续监控 AI Agent 在真实业务流程中的操作行为,例如它们每天执行哪些任务、是否按照预期流程运行以及是否存在异常行为。然而在目前的技术环境下,大多数企业缺乏针对 AI Agent 的行为可观测能力,无法对其运行过程进行持续审计和追踪。

此外,随着 AI Agent 不断接入新的系统、工具和数据资源,其 风险面(Risk Surface) 也在持续扩大。智能体可能在执行任务过程中访问敏感数据、调用未授权工具或因上下文被操控而做出错误决策,从而引发数据泄露、越权访问等安全问题。同时,由于 AI Agent 之间可能存在协作关系,一旦某个智能体出现异常行为,还可能引发级联故障或业务流程中断。这些风险在传统安全体系中难以及时识别和评估。例如最近爆火的openclaw,用户在本地部署 Agent 时往往授予其读取文件、执行命令和访问账号的权限,安全研究人员发现这些 AI Agent 在自动执行任务时,会批量创建虚假账号并传播诈骗内容 [4][5]。

最后,传统安全产品往往难以有效应对 AI Agent 带来的新型风险。现有安全体系(如 IAM、SIEM、EDR 等)主要针对人类用户或传统应用设计,而 AI Agent 具有实时决策和自主执行能力,很多情况下甚至不存在可以直接“终止”的控制点。如果继续依赖传统的检测与响应方式,往往难以及时阻止智能体在运行过程中产生的风险。因此,企业需要一种专门面向 AI Agent 场景设计的安全与治理解决方案,能够在智能体运行过程中持续监控其行为、评估风险并提供策略化控制能力。

在这一背景下,Geordie AI 提出了面向 AI Agent 的安全治理平台,通过自动发现企业内部运行的智能体、持续分析其能力与行为,并建立统一的风险评估与策略控制体系,帮助企业解决 AI Agent 在可见性、行为监控、权限管理和风险治理等方面的核心问题,从而在保证安全与合规的前提下推动智能体技术在企业中的规模化应用。

 

03核心产品深度解析

Geordie AI 提供一套覆盖企业 AI Agent 全生命周期的安全治理平台,通过对代码环境、云平台以及终端设备的统一接入,实现对企业智能体生态的 端到端可视化与风险治理能力。平台能够通过 SSO、API 接口以及终端代理等方式接入企业现有系统,从而识别并监控运行在不同环境中的 AI Agent,例如代码仓库中的开发型 Agent、云平台中的自动化 Agent 以及员工终端设备上的 AI 助手等。通过统一的数据采集与分析机制,Geordie 能够构建企业完整的 Agent 运行生态视图,并将相关安全信息与企业现有安全与运维工具(如日志平台、工单系统和协作工具)进行联动 [3]。核心能力方面,Geordie AI主要提供以下能力:

图3 Geordie架构图

3.1端到端智能体可视化

(End-to-end Agent Visibility)

在核心能力方面,Geordie 首先提供 端到端的智能体可视化能力(End-to-end Agent Visibility)。平台能够在不同架构与平台之间建立统一视图,对企业内部所有 AI Agent 进行资产识别与管理,并展示其权限状态、可访问的数据资源、可调用的工具以及执行的操作轨迹。同时,系统会持续收集智能体的行为数据,从而形成完整的 Agent 决策与活动记录,为安全审计和风险分析提供基础。

从实现角度来看,该能力很可能通过在 AI Agent 运行环境中部署轻量级采集组件,对 Agent 的关键行为事件进行实时记录。例如,系统可以对模型推理调用、工具调用、API 请求以及数据访问行为进行事件捕获,并通过统一的日志或事件管道汇聚到中央控制平台。随后平台通过资产识别与关联分析技术,对不同系统中的 Agent 实例进行统一建模,构建企业级 Agent 资产图谱,从而实现跨平台的统一可视化与管理。这种技术思路与当前 AI 应用可观测性平台的实现方式较为类似,例如 LangChain 提供的可观测性平台 LangSmith [6],以及 Arize AI [7]在 LLM 调用链追踪与行为监控方面所采用的技术架构。

图4 LangSmith agent观测平台

图5 Arize AI的某个agent trace和评估

3.2上下文感知治理(Contextual Governance)

在治理与控制层面,Geordie 提供 “上下文感知治理(Contextual Governance)”能力。该机制能够在不影响业务效率的情况下,对 AI Agent 的决策过程进行实时约束。通过分析 Agent 当前任务的上下文信息,平台能够在必要时对其行为进行引导或干预,从而确保智能体的行为始终符合企业安全策略和治理要求。这种方式避免了传统安全网关带来的性能影响,同时能够更精准地控制智能体行为。

在技术实现上,这种能力可能依赖于在 Agent 执行流程中嵌入策略决策层(Policy Decision Layer)。系统通过分析任务上下文、用户身份、数据敏感级别以及工具权限范围等信息,动态生成执行策略。当 Agent 发起工具调用或敏感操作请求时,策略引擎会对其进行实时评估,并根据策略规则对请求进行放行、限制或阻断。此外,系统还可能结合语义分析与任务理解能力,对潜在风险操作进行提前识别,从而实现更细粒度的治理控制。一些 AI 安全厂商(如 Lakera)已经在他们的产品中引入了类似的技术机制,在 LLM 或 Agent 调用链中引入实时策略控制与 Guardrail 机制 [8]。

3.3动态行为监管(Dynamic Behavioral Oversight)

在运行监控方面,Geordie 还提供 “动态行为监管(Dynamic Behavioral Oversight)”能力。平台通过行为分析技术持续监控 AI Agent 的运行状态,识别智能体行为偏移(Behavior Drift)或与既定策略不一致的情况,并支持对多智能体协作工作流进行监控。此外,系统还能支持智能体的生命周期管理,例如版本更新、权限变更以及策略调整,从而帮助企业在持续创新过程中保持安全治理能力。

在实现层面,该能力可能通过持续采集 Agent 的执行日志、工具调用序列以及决策路径信息来构建行为基线模型。当系统检测到与历史模式明显不同的行为特征时,会自动触发异常检测机制,对潜在风险行为进行标记与告警。同时,平台还可以通过工作流分析技术对多智能体之间的协作关系进行建模,从而识别复杂任务链路中的异常节点或潜在风险传播路径。这种基于行为模式的安全监控方法在 AI 安全领域已经开始出现,例如 Astrix Security [9] 等厂商在 AI 应用安全平台中提出的行为监控与风险检测机制,其技术思路与传统安全领域的 UEBA(User and Entity Behavior Analytics) 模型也具有一定相似性。

图6 Astrix Security通过基线识别可疑的agent行为

3.4Beam 风险缓解引擎(Beam Risk Mitigation Engine)

Geordie 的核心技术组件之一是其专有的 Beam 风险缓解引擎(Beam Risk Mitigation Engine)。该引擎通过实时上下文分析,在 AI Agent 做出决策时提供动态指导,从而在风险发生之前进行干预。例如,当智能体计划访问敏感数据或执行潜在危险操作时,Beam 可以通过上下文调整或策略约束,引导 Agent 采取更安全的行为路径。这种方式能够在不影响业务连续性的前提下实现主动风险防御。

从架构角度来看,Beam 很可能在 Agent 决策链路中引入实时风险评估模块,对智能体即将执行的操作进行动态评分。当系统识别到潜在高风险行为时,可以通过调整上下文提示、限制工具调用参数或替换执行路径等方式对 Agent 决策进行修正。这种机制本质上将安全控制嵌入到 Agent 的执行逻辑之中,使系统能够在任务执行阶段而非事后检测阶段进行风险干预。类似的安全理念在 AI 安全研究中也逐渐受到关注,例如 Anthropic 在 AI 安全研究中提出的模型决策约束机制 [10],以及 Protect AI [11] 所提出的 AI Runtime Protection 技术方向,都强调在模型决策阶段对潜在风险进行实时干预。

3.5快速部署与无缝接入能力(Rapid Deployment & Seamless Integration)

此外,Geordie 平台还强调 快速部署和无缝接入能力。企业在接入平台后,通常可以在约 10 分钟内获得对 AI Agent 的初步可视化能力。系统支持灵活的部署方式,可覆盖云环境、代码开发环境以及终端设备,并能够与主流 AI 框架、云平台和企业工具进行无缝集成。同时,该平台支持多种智能体架构,包括代码开发型 Agent、SaaS Agent、终端 Agent 以及低代码或无代码智能体,使企业无需更换现有技术体系即可实现统一的智能体安全治理。

从技术实现角度来看,这种快速接入能力很可能依赖于轻量级的集成方式,例如 SDK、API 网关代理或插件化组件,使平台能够在不改变现有系统架构的情况下接入企业的 AI Agent 运行环境。例如,在代码开发型 Agent 场景中,系统可能通过 SDK 或中间件方式接入 Agent 框架,从而捕获工具调用和推理事件;在 SaaS Agent 或企业应用场景中,则可能通过 API 集成或身份代理方式实现行为监控与策略控制。此外,在云环境中还可能通过容器侧车(Sidecar)或代理网关方式实现统一的数据采集与策略执行。这类插件化与可插拔的接入模式在当前 AI 应用生态中较为常见,例如 LangChain 提供的框架集成机制,以及 OpenAI 和 Anthropic 等平台所支持的 API 与工具调用接口生态,都使第三方安全平台能够较为容易地接入和监控 AI Agent 的运行行为。

从整体架构来看,Geordie 实际上试图构建一层新的安全能力,即 AI Agent Runtime Security(智能体运行时安全层)。通过可视化、策略治理、行为监控与风险缓解等能力,该平台能够在 AI Agent 执行任务的整个生命周期中提供持续的安全控制。

 

04总结

本文通过对随着生成式 AI 与大模型技术的快速发展,企业正在从“使用 AI 工具”逐渐迈向“部署 AI Agent”。这些智能体能够自主调用工具、访问数据并执行复杂任务,正在成为企业数字化体系中的重要执行主体。然而,AI Agent 的自主性和非确定性也带来了新的安全挑战,例如智能体资产不可见、行为不可观测、权限边界不清以及风险难以持续评估等问题。传统以用户、设备或应用为核心的安全体系难以直接适用于这一新兴场景,因此企业迫切需要针对 AI Agent 构建新的安全治理能力。

Geordie AI 正是在这一背景下提出其 AI Agent 安全与治理平台,通过统一的智能体资产发现、行为可观测、风险评估和策略控制能力,为企业提供面向智能体运行环境的安全管理框架。该平台能够帮助企业识别组织内部的 AI Agent 生态,持续监控其行为与权限变化,并对潜在风险进行及时发现与治理,从而提升企业在大规模部署 AI Agent 时的安全可控性。

从行业发展趋势来看,随着企业对 AI Agent 的依赖程度不断提升,围绕智能体的安全治理也将逐渐成为 AI 安全领域的重要方向。未来,AI Agent Security 有望像云安全和身份安全一样,发展为企业安全体系中的关键组成部分。Geordie AI 作为该领域的早期探索者,其技术路线和产品思路为行业提供了一种新的参考,也反映出安全行业正在向“面向智能体的安全治理”方向持续演进。

 

参考文献:

[1]https://www.geordie.ai/about

[2] https://finance.yahoo.com/news/geordie-exits-stealth-6-5m-100000822.html?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAAGsJIO3cyRh9GKjXp3bjZe-AdLVg3EsADkFHZCTrRSkkMBfKbAjTRU686A8nwca-Z9G9TDO3F2DnfgtxE2kgJ7tJ9A_ic7JukqGvH7B1uyatu5p77VMJO37a2ad81s-FpytKLdCwUWwr3J5Q2el6QmauK06NMP2zszVLoLC7Pkip#

[3] https://www.geordie.ai/product

[4] https://cyberstrategyinstitute.com/openclaw-risks-autonomous-ai-agents/

[5]https://mp.weixin.qq.com/s/FlhMmYf0YNsj2FCzqHiE8g

[6] https://www.langchain.com/langsmith/observability

[7] https://arize.com/ai-agents/agent-observability/

[8] https://docs.lakera.ai/guard

[9] https://astrix.security/product/secure-ai-agents/

[10] https://arxiv.org/abs/2212.08073

[11] https://protectai.com/

Spread the word. Share this post!

Meet The Author