企业中的大部分AI应用对安全团队而言是不可见的

大多数企业内部的企业AI活动都在IT和安全团队不知情的情况下进行。根据Lanai的大部数据 ,企业中高达89%的应用对AI使用是“隐形”的 ,带来了数据隐私 、安全合规与治理方面的团队风险 。
随着AI功能直接嵌入各类业务工具 ,企业这一“盲区”正在扩大 。大部员工常将个人AI账户连接到工作设备,应用对或使用未经批准的安全服务,建站模板使安全团队难以监控。团队Lanai指出 ,企业这种缺乏可见性的大部状况让企业面临数据泄露和监管违规的威胁 。
隐形的应用对AI使用场景在医疗行业,员工使用AI工具总结患者数据 ,安全引发了 HIPAA(美国健康保险可携性与责任法案)相关隐私担忧 。团队金融领域的团队在准备IPO时 ,不知不觉将敏感信息转入个人ChatGPT账户 。保险公司利用嵌入式AI功能按人口统计数据细分客户 ,可能违反反歧视规定。
Lanai的CEO Lexi Reese提到 ,源码库一个令人意外的发现来自那些已经获得IT批准的工具:
“最让我吃惊的是 ,很多创新隐藏在已获批准的应用(包括SaaS和自建应用)内部 。比如,一个销售团队将邮政编码的人口统计数据上传到Salesforce Einstein,用以提升追加销售转化率 ,虽然带来了营收增长,却违反了州级保险定价的反歧视规则。
表面上看,Salesforce是亿华云获批平台,但实际嵌入的AI功能带来了CISO从未察觉的合规风险。”
Lanai表示 ,这只是更广泛趋势的缩影。AI经常内嵌在Salesforce、Microsoft Office、Google Workspace等常用工具中。由于这些功能是员工日常使用的一部分 ,它们可以绕过传统的 DLP(数据泄露防护)和网络监控措施。高防服务器
Lanai平台的运作方式为应对这一问题 ,Lanai推出了一款基于终端的AI可观测智能体 ,该平台直接在员工设备上安装轻量级检测软件 ,在“边缘”实时捕捉AI活动,而无需将数据回传至中央服务器。
Reese解释 ,这种架构需要解决复杂的工程难题:
“在终端运行AI模型改变了游戏规则。简单的办法是维护一个静态列表,然后分析浏览器的访问或把每次对话传到云端 ,但这两种方式要么更新滞后 ,服务器租用要么产生新的数据外泄风险。
我们将提示检测模型直接部署在笔记本和浏览器中,数据流量不离开设备边界 。难点在于 :既要压缩检测模型以确保性能不受影响,又要足够智能以识别提示交互,而不仅仅是识别应用名称 。
一旦识别出AI交互,我们的SaaS平台会通过风险与工作流智能模型,对提示模式进行聚类分析,而非简单扫描关键字 。这既保护隐私 ,又减少延迟,让我们可以在数千个终端上扩展,免费模板而不会拖慢系统 。”
Lanai表示,借助标准的移动设备管理(MDM)系统,该软件可在 24 小时内完成部署 。安装后 ,企业即可了解自身的AI使用足迹 ,并制定管理策略。
治理优先,而非一刀切封禁Lanai强调 ,其目标不是彻底阻止AI,而是为 CISO 等领导层提供决策所需的可见性。企业可以据此评估风险 ,决定哪些工具可以批准或限制 。
Reese 指出,对于受严格监管的行业,如医疗,仅靠应用层面的监控远远不够:
“获批的平台不代表获批的工作流 。我们关注的是提示与数据模式 ,而不仅仅是应用 。
例如 ,在一家大型医院网络中,临床医生使用其网页端 EHR(电子病历)系统中嵌入的AI总结功能自动生成患者就诊摘要。表面看,这属于经过批准的 EHR 平台 ,但该流程将受保护的健康信息(PHI)输入了不在 HIPAA 商业合作协议范围内的AI模型。
Lanai能够识别这种差异,不是因为简单标记‘EHR 使用’,而是通过识别特定的提示+数据模式,发现敏感患者记录进入了不安全的AI流程 。
我们会检测提示中涉及的数据类型、调用的AI功能 ,以及流程是否符合企业或监管方定义的敏感场景 ,从而在同一个 SaaS 工具内部实时区分合规创新与高风险滥用,而这是传统监控无法做到的。”
量化成效Lanai表示 ,采用其平台的组织在减少AI相关事件方面取得了显著成效 :
“在那家医疗体系中 ,‘数据暴露事件’主要是指临床医生将患者记录 、实验室结果或受保护的健康信息粘贴到 EHR 或生产力应用中的AI功能里。
部署Lanai 60天内 ,客户相关事件减少了高达 80% 。并非员工停止使用AI ,而是因为企业终于获得了可见性,能够及时标记并引导不安全的流程 ,”Reese 说 。
在金融服务领域也出现了类似趋势 :部分机构在一个季度内,将未经批准的AI在敏感财务数据分析中的使用减少了约 70%。有时这是因为未经批准的应用被停用 ,另一些情况下 ,企业则通过将AI使用场景纳入获批技术堆栈的安全环境中 ,既保留了生产力优势,又消除了风险。