- 网络安全公司LayerX发布的《2025年企业AI与SaaS数据安全报告》显示:45%的企业员工正在使用生成式AI工具,其中77%的人将内部数据直接复制粘贴到像ChatGPT这样的聊天机器人中。
- 令人担忧的是,22%的粘贴数据包含敏感信息(PII/PCI),如信用卡号或个人数据。其中,82%的操作来自非受控的个人账户,这使企业完全失去对数据流的控制,并面临安全、法规和政治违规的风险。
- 上传到生成式AI网站的文件中有40%包含PII/PCI数据,其中近39%来自非企业账户。
- LayerX首席执行官Or Eshed以三星在2023年因源代码泄露事件禁止员工使用ChatGPT为例,强调了将数据“暴露”给像Qwen(中国)这样的外国AI模型可能引发地缘政治后果的风险。
- ChatGPT是目前企业中最受欢迎的AI工具,超过90%的员工在使用,远远超过谷歌Gemini(15%)、Claude(5%)和微软Copilot(2–3%)。尽管微软允许在企业环境中使用个人Copilot账户,但用户因其便利性和更高的可靠性而更偏爱ChatGPT。
- ChatGPT在企业中的渗透率达到43%,接近Zoom(75%)和谷歌服务(65%),并超过了Slack(22%)、Salesforce(18%)和Atlassian(15%)。
- AI占所有企业应用活动的11%,仅次于电子邮件(20%)和在线会议(20%)。LayerX建议首席信息安全官(CISO)采用单点登录(SSO)来监控和控制数据。
📌 总结: 45%的企业员工使用生成式AI,其中77%的人将内部数据直接复制粘贴到聊天机器人中。令人担忧的是,22%的粘贴数据包含信用卡号或个人数据等敏感信息。ChatGPT是企业中最受欢迎的AI工具,超过90%的员工在使用,远超谷歌Gemini(15%),其企业渗透率达到43%。这正使企业数据处于高风险区域。在Copilot仅占2%被“冷落”的同时,公司必须在“数据洪水”全球蔓延之前,收紧访问控制和数据加密。
