企业数据安全的黑洞:AI聊天工具

企业数据安全的“防火墙”正面临一场前所未有的考验。主角不是传统的黑客攻击,而是那些正在被员工广泛、甚至偷偷摸摸使用的AI聊天工具,尤其是ChatGPT(以及类似的AI聊天工具)。

大量敏感数据在ChatGPT上裸奔

安全公司LayerX在其《2025年企业AI与SaaS数据安全报告》(链接在文末)中,揭露了一个令人震惊的事实:员工正在以一种几乎“裸奔”的方式,将企业的敏感数据源源不断暴露给外部的AI平台。

报告核心发现指出:

  • 复制粘贴的“本能”与风险:在45%使用生成式AI工具的企业员工中,77%的人习惯性地将数据复制粘贴到聊天机器人的查询框中。更危险的是,这些操作中22%包含了PII (个人身份信息) 或 PCI (支付卡行业数据)。
  • 文件上传的“定时炸弹”:不仅仅是文本,约40%上传到生成式AI网站的文件中也包含PII/PCI数据。

这意味着,无论是客户的电话号码、身份证信息,还是企业的敏感财务数据,都可能在员工为了追求效率或好奇心的一次次操作中,被悄无声息地送给了AI平台。

影子AI:82%的数据泄露来自个人账户

比数据泄露本身更可怕的是,企业对这些风险几乎一无所知。

LayerX报告称,82%的复制粘贴操作是通过员工的非托管个人账户进行的。换句话说,这些操作是彻头彻尾的 “影子IT”(Shadow IT)行为。

“82%的粘贴操作来自非托管个人账户,企业对哪些数据正在被共享几乎没有可见性,这为数据泄露和合规风险创造了一个巨大的盲点。”——LayerX报告

当员工使用个人账户登录ChatGPT(或其他类似的AI聊天工具)时,企业原有的安全边界(如网络监控、企业数据防泄漏系统DLP)形同虚设。企业CISO(首席信息安全官)面对的,是一个完全失控的、不可见的数据外泄黑洞。

LayerX首席执行官Or Eshed引用了三星2023年临时禁用ChatGPT的事件作为佐证——正是因为有员工上传了敏感代码给聊天机器人,导致这家科技巨头不得不紧急叫停。

这不仅仅是代码泄露的风险,更可能引发地缘政治问题(如数据流向某些国家或地区的AI模型)、监管合规问题(如GDPR、HIPAA等),以及企业数据被不当用于AI模型训练的风险。

企业AI被个人AI统治

员工对AI工具的偏好,进一步加剧了数据安全挑战。

LayerX的数据揭示了一个压倒性的事实:ChatGPT已经成为企业事实上的AI 标准工具。

一骑绝尘的ChatGPT:在所有AI应用中,超过90%的员工在使用ChatGPT,而其他竞争对手如Google Gemini (15%)、Claude (5%),以及来自微软的 Copilot (仅2%-3%) adoption adoption却相形见绌。

用户的“忠诚”选择:“用户有一个首选的AI平台,即使公司有‘官方’或授权的版本,用户也会选择他们想要的,而这个选择绝大多数是ChatGPT。”Eshed 对此评论道。

员工对ChatGPT的青睐和依赖,使其在企业中的普及率达到了43%,已经逼近了Zoom(75%)和Google services(65%)的普及水平,远超Slack(22%)和Salesforce(18%)。

这种“用户爱用”的趋势,甚至让科技巨头也开始妥协。微软最近就表态将支持个人Copilot账户在企业Microsoft 365账户中使用,这被视为微软对ChatGPT主导地位的“无奈屈服”,也无疑是对“影子IT”的某种“官方背书”,进一步模糊了企业和个人账户的界限,增加了安全管理的难度。

亡羊补牢:CISO的杀手锏

LayerX的报告清晰地勾勒出AI时代企业数据安全的困境:AI使用在企业中的占比已经达到11%,仅次于电子邮件、在线会议和办公生产力工具。员工追求效率的热情,正在不断吞噬传统的安全边界。

面对这个“黑洞”,LayerX提出的解决方案是:强制执行SSO(Single Sign-On,单点登录)。

如果企业想对数据流有任何可见性,CISO必须开始认真对待为每一个业务关键应用程序强制执行SSO。通过SSO,企业至少可以识别用户身份,并限制对非授权个人账户的使用,从而在一定程度上将“影子AI”拉回到光线下。

企业必须明白:AI聊天工具不再是一个可有可无的“小玩具”,而是正在成为企业数据流的核心通道。如果不能将这些工具纳入安全监管范围,那么所有关于数据保护和合规的努力都将因为员工在聊天框中的一次简单“Ctrl+C”和“Ctrl+V”而付诸东流。

前一篇聚焦安全迭代,携手智启新程 | 2025年国家网络安全宣传周成都系列活动隆重开幕,CCS2025精彩启程