36kr-科技 07月22日 10:41
影子 AI:你的公司也可能沦为 AI 训练素材
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

生成式AI已深度渗透职场,在提升效率的同时也带来了安全风险。员工可能无意中将敏感数据输入公共AI系统,导致商业秘密泄露。企业若一味封锁AI应用,反而会催生“影子AI”现象,使安全盲区扩大。有效的应对策略应包含可视化监控、制定智能化的治理规范(而非一刀切禁令),并对员工进行AI风险和合规使用的专项培训。通过平衡创新与安全,企业可以将生成式AI从潜在负担转化为战略机遇,实现可持续发展。

💡 **AI风险的根源与“影子AI”现象:** 生成式AI(如ChatGPT)在提升工作效率的同时,也可能导致敏感公司数据(如源代码)流入公共AI系统,被用作训练数据。当企业试图通过封锁公共AI应用来规避风险时,员工可能转而使用私人设备或截图等方式绕过监控,形成“影子AI”,反而扩大了安全漏洞,使得IT和安全部门难以掌控真实情况。

📊 **可视化监控与风险识别是基础:** 有效管控AI风险的第一步是全面掌握AI工具在组织内的应用情况。通过可视化监控,IT管理者可以识别员工的使用模式,标记高风险行为(如尝试上传敏感数据),并评估公共AI应用对企业的影响,为后续治理措施提供依据。

⚖️ **制定差异化、场景感知的治理策略:** 企业应避免对AI应用采取一刀切的禁令,而是推行基于场景感知的智能管控。例如,通过浏览器隔离技术拦截敏感数据上传,或引导员工使用经企业认证的AI平台。不同部门和岗位应实施差异化管控,如为研发团队提供精准授权,对财务等敏感部门设置更严格的访问限制。

🛡️ **强化数据防泄露(DLP)机制与员工赋能:** 为防止AI技术被滥用,企业需部署强效的数据防泄露(DLP)机制,实时识别并阻断敏感信息向未授权平台的共享。同时,企业必须对员工进行AI固有风险及相应管控政策的专项培训,明确安全可行的AI使用行为和高危操作,并传达敏感数据泄露的严重后果,构建技术防护与员工意识相结合的完整防御体系。

对许多人而言,生成式人工智能(GenAI)最初只是居家和个人设备上的新奇尝试。

但如今,AI 已深度渗透职场生态 —— 在提升生产效率的同时,也让企业暴露于巨大的安全漏洞之中。

敏感公司数据正以各种形式(无论有意或无意)持续流入公共 AI 系统,IT 与网络安全负责人疲于应对。

一旦专有数据被公共 AI 工具处理,这些信息就可能成为模型的训练数据,最终服务于其他用户。例如 2023 年 3 月,某跨国电子制造商就曾被曝发生多起员工将产品源代码等机密数据输入 ChatGPT 的事件。

大型语言模型等生成式 AI 应用的运行机制决定了它们会从交互中持续学习 —— 没有任何企业愿意用自家核心数据来 "喂养" 公共 AI 应用。

面对商业秘密和核心数据泄露的风险,许多企业选择直接封杀生成式 AI 应用。

这种看似能阻断敏感信息流入未授权平台的做法,实则催生了更危险的 "AI 影子化" 现象 —— 员工开始通过私人设备登录、将数据转发至个人账户,甚至截图绕过监控系统上传,使得企业安全防线的盲区不断扩大。

【小贴士】

"Shadow AI"(影子AI):指员工未经企业 IT 部门批准,私自使用生成式 AI 工具(如 ChatGPT 等)处理工作的现象。 

这一概念源自 IT 管理中的术语 "Shadow IT"(影子 IT),特指员工绕过正规流程使用的技术工具。 

更糟的是,通过简单封锁访问权限,IT 和安全主管反而失去了对真实情况的掌控,实际上并未真正管控数据安全与隐私风险。这种举措只会扼杀创新与生产力提升。

01 应对 AI 风险的战略路径

有效管控员工使用 AI 带来的风险,需要采取以可视化监控、治理规范和员工赋能为核心的多元化策略。

第一步是全面掌握 AI 工具在组织内部的应用情况。通过可视化监控,IT 管理者能够识别员工使用模式,标记风险行为(例如试图上传敏感数据),并评估公共 AI 应用使用的真实影响。

若缺乏这一基础认知,治理措施注定收效甚微,因为它们无法针对员工与 AI 交互的真实场景进行有效管控。

制定定制化政策是下一步的关键举措。企业应避免一刀切的禁令,转而推行基于场景感知的智能管控策略。

具体而言,对于公共 AI 应用,可部署浏览器隔离技术 —— 允许员工处理常规任务的同时,自动拦截特定类型公司数据的上传行为。

另一种方案是将员工引导至经企业认证的 AI 平台,这些平台在保持同等功能的同时,能有效保护商业机密。

需要特别注意的是,不同岗位应实施差异化管控:某些研发团队可能需要特定应用的精准授权,而财务等敏感部门则需配置更严格的访问限制。

为防止滥用 AI 技术,企业须部署强效的数据防泄露(DLP)机制,实时识别并阻断向公共或未授权 AI 平台共享敏感信息的企图。

鉴于意外泄露是 AI 相关数据泄露的主因,启用实时 DLP 防护可构筑安全防线,显著降低企业受损风险。

最终,企业必须对员工开展 AI 固有风险及相应管控政策的专项培训。培训内容应当聚焦实操指南 —— 明确告知哪些 AI 使用行为安全可行,哪些属于高危操作 —— 同时清晰传达敏感数据泄露的后果。

唯有将技术防护措施与员工风险意识、责任追究机制相结合,方能构建完整的防御体系。

02 创新与安全的平衡之道

生成式 AI 已然彻底改变了员工的工作模式与组织运作方式,在带来变革性机遇的同时也伴随着显著风险。

问题的关键不在于拒绝这项技术,而在于以负责任的态度拥抱它。那些着力构建可视化监控体系、实施精准治理策略并持续开展员工培训的企业,终将找到创新激励与敏感数据保护之间的最佳平衡点。

企业不应在安全与工作效率之间做单选题,而应打造二者共生共荣的生态。那些成功实现这种平衡的组织,将在快速演进的数字化浪潮中抢占先机。

通过管控 "影子 AI" 风险、构建安全高效的 AI 应用体系,企业完全可以将生成式 AI 从潜在负担转化为战略机遇,在此过程中夯实基业长青的根基。

生成式 AI 已成为不可逆的趋势。

真正能从中获益的,永远是那些洞悉其风险、建立有效防护机制,并赋能员工安全合规应用的企业。

本文来自微信公众号 “牛透社”(ID:Neuters),作者:AI 发现者,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

生成式AI 网络安全 企业管理 数据安全 影子AI
相关文章