违规使用开源AI工具 敏感资料被泄露 案例解读→
创始人
2026-01-07 21:21:36

当前,AI大模型赋能千行百业,这位能干又贴心的“数字伙伴”正加速融入我们的日常生活。当AI的触角延伸越广、嵌入越深,一些风险也随之而来。来看国家安全部近日披露的案例。

国家安全部近日披露案例,个别单位因直接使用开源框架建立联网大模型,导致攻击者未经授权即可自由访问内部网络,从而引发数据泄露和安全风险。

案例显示,某单位工作人员在处理内部文件时,违规使用开源AI工具,由于电脑系统默认开启公网访问且未设密码,导致敏感资料被境外IP非法访问和下载。

何为“开源大模型”?有哪些安全隐患?

刚才提到的开源框架大模型指的是什么?存在哪些安全隐患?我们来听专家的解读。

中国网络空间安全协会人工智能安全治理专业委员会委员 王媛媛:开源大模型是指将模型的架构、参数、训练数据公开给客户免费使用的人工智能模型,目前互联网上开放的开源大模型是非常多的,有的擅长推理,有的擅长编写代码,有的擅长处理文本,还有的擅长处理影像等等。比如说给它一个体检报告,可以帮助我分析我的身体有什么样的异常,应该如何进行调整,会给我一些非常专业的建议。

专家表示,网民在使用AI工具时,往往忽略了一个问题,就是AI工具有储存数据的功能。网民投喂给AI的任何文件、图片等数据,AI都会进行存储。

中国网络空间安全协会人工智能安全治理专业委员会委员 王媛媛:数据安全其实是开源大模型最大的隐患,这很可能会被大家忽略。那么上传到开源大模型的任何数据,大模型自身都会进行存储,这是它的工作原理,因为只有这样才能对数据做分析。如果把公司内部比较机密的一些数据上传到开源大模型,实际上这些数据已经面临了泄露的风险。

网民将敏感数据投喂给AI工具后,这些被AI存储的数据是如何泄露的呢?

首先这些数据对AI工具的开发者是完全开放的,开发者可以利用权限看到这些数据。另外,目前AI工具很多都是开源的,黑客也会利用大模型本身漏洞攻击入侵大模型后台,获得数据。

保护数据安全 切勿给AI工具投喂敏感数据

AI工具具有数据存储功能,因此专家提醒,在日常使用中,切勿给AI工具投喂敏感数据。

中国网络空间安全协会人工智能安全治理专业委员会委员 王媛媛:一方面在日常作为普通的网民,在正常使用互联网开源大模型的时候,要注意不要将个人的敏感信息、隐私信息上传到开源大模型中。

另外企业在使用开源大模型的时候,在训练自己的数据的时候,要注意一定要做到私有化部署的方式,也就是将所有的数据都保存在本地,这样就不会把一些内部的数据上传到互联网上了。但是这样的私有化部署的方式,相应地也要投入一些基础设施和专业的团队来进行维护。

相关内容

热门资讯

如何用AI「反向驯化」老板 最近刷朋友圈,你一定会发现一个超有趣的职场大变样 —— 曾经的朋友圈「加班文学」,全是统一模板:深夜...
外媒测试Ubuntu 26.0... IT之家 3 月 13 日消息,科技媒体 Phoronix 昨日(3 月 12 日)发布博文,在英伟...
成都登协主席蒋峻:三月踏青赏花... 海拔低、风景美、老少皆宜 成都登协主席蒋峻:三月踏青赏花就登龙泉山 蒋峻 受访者供图 3月正是出...
泰山景区喜迎2026年第100... 通讯员 苏昱 3月13日,泰山景区“平安幸运星”送福活动在红门万仙楼举行,来自河北省三河市的康女士幸...
原创 中... 说起哈尔滨,它是中国省会里面积最大的一个,规模大到能比得上好几个大城市加起来。 位置正好在黑龙江省的...