
但一位专家表示 ,使度正这一估计数字偏低 。用速“我认为实际情况可能更糟,安全”网络安全和AI专家约瑟夫·斯坦伯格(Joseph Steinberg)说,控制“在大型公司中,使度正这个数字肯定要高于这个平均值 。用速”
事实上 ,安全他预测企业中使用的控制高风险AI应用程序数量只会不断增加。
这意味着,使度正CISO需要对员工正在使用的用速每个GenAI应用程序进行风险评估,然后制定员工必须遵守的安全政策和程序 。他在接受采访时表示 ,控制并警告CISO和CEO不要采用“鸵鸟算法”——即通过忽视(甚至奖励)员工在办公室或家中对AI的使度正影子使用来假装危险不存在。云计算
“毫无疑问,用速企业内部存在大量以高度有问题的安全方式使用GenAI应用程序的情况 ,”他说 ,“记住 ,我可以在我的个人电脑上使用一个GenAI应用程序,而我的公司对此毫无控制权,仅仅通过我的提问,我就可能泄露大量数据——而且可能不仅是我提问的内容,还有其他人提问的高防服务器内容,因为GenAI会从问题模式中学习。”
“这很难阻止,因为企业无法完全控制这种风险,因为有人可以在自己的时间和自己的机器上做到这一点。”
他补充说 ,企业有时会故意或无意地奖励员工使用未经批准的GenAI应用程序 ,例如,通过赞扬一份做得太好的报告 。
“说实话,”他说,“许多禁止使用GenAI的源码下载公司实际上都在奖励他们的员工使用它,他们永远不会承认这一点,但如果你根据表现进行评估 ,而你的表现因为使用影子IT或AI(在自己的机器上 、自己的时间里)得到了提升,如果你没有受到惩罚 ,你就不会停止。”
斯坦伯格是在评论一项关于GenAI在企业中普及程度的研究时发表上述言论的,该研究分析了2024年12个月内7000多名客户的亿华云流量日志,以检测SaaS应用程序的使用情况,如ChatGPT、Microsoft Copilot 、Amazon Bedrock等,研究还单独查看了今年前三个月客户数据泄露预防事件的匿名数据 。
研究发现 :
• 平均而言,大多数企业将在其环境中看到总共66个GenAI应用程序,大部分是“写作助手”(占样本的34% ,其中最大的是Grammarly) ,服务器租用“对话智能体”(略低于29%,如Microsoft Copilot 、ChatGPT和Google Gemini等应用程序),“企业搜索”应用程序(占样本的10%多一点)和“开发者平台”应用程序(占样本的10%多一点)。这四个类别加起来占GenAI应用程序的84%。
• 10%的GenAI应用程序被称为“高风险”,因为根据客户遥测数据,在研究期间的某个或某些时间点 ,客户曾限制或阻止对这些应用程序的访问。
• GenAI数据泄露预防事件今年比2024年增加了一倍多。建站模板
报告警告说,写作助手并非可以轻视的应用程序。“如果AI写作助手在没有适当安全控制的情况下集成到企业的系统中 ,它可能成为网络攻击的载体,黑客可以利用GenAI应用程序中的弱点来访问内部系统或敏感数据 。”
“随着GenAI的采用不断增加,其风险也在增加,”报告说 ,“如果企业对GenAI应用程序及其更广泛的AI生态系统缺乏可见性,就可能面临泄露敏感数据、违反法规和失去知识产权控制的风险 。监控AI交互不再是可选项,它对于帮助防止影子AI的采用 、执行安全政策以及实现负责任的AI使用至关重要 。”
报告为CISO确定了以下GenAI安全最佳实践 :
• 了解并控制企业在GenAI方面的使用情况和允许范围。实施条件访问管理 ,根据用户和/或组、位置 、应用程序风险 、合规设备以及合法的业务理由来限制对GenAI平台、应用程序和插件的访问 。
• 通过在整个基础设施和数据安全工作流程中实施集中策略执行来实时检查内容,以防止未经授权的访问和敏感数据泄露。
• 通过零信任安全框架来防御现代基于AI的网络威胁 ,以识别和阻止GenAI响应中的高度复杂、规避性强且隐蔽的恶意软件和威胁。