切勿给AI工具投喂敏感数据 国家安全部披露案例

来源:央视网 | 2026年01月08日 07:21:47
央视网 | 2026年01月08日 07:21:47
原标题:
正在加载

  央视网消息:当前,AI大模型赋能千行百业,这位能干又贴心的“数字伙伴”正加速融入我们的日常生活。当AI的触角延伸越广、嵌入越深,一些风险也随之而来。来看国家安全部近日披露的案例。

  国家安全部近日披露案例,个别单位因直接使用开源框架建立联网大模型,导致攻击者未经授权即可自由访问内部网络,从而引发数据泄露和安全风险。 

  案例显示,某单位工作人员在处理内部文件时,违规使用开源AI工具,由于电脑系统默认开启公网访问且未设密码,导致敏感资料被境外IP非法访问和下载。

  何为“开源大模型”?有哪些安全隐患?

  刚才提到的开源框架大模型指的是什么?存在哪些安全隐患?我们来听专家的解读。

  专家表示,网民在使用AI工具时,往往忽略了一个问题,就是AI工具有储存数据的功能。网民投喂给AI的任何文件、图片等数据,AI都会进行存储。

  网民将敏感数据投喂给AI工具后,这些被AI存储的数据是如何泄露的呢?首先这些数据对AI工具的开发者是完全开放的,开发者可以利用权限看到这些数据。另外,目前AI工具很多都是开源的,黑客也会利用大模型本身漏洞攻击入侵大模型后台,获得数据。

  保护数据安全 切勿给AI工具投喂敏感数据

  AI工具具有数据存储功能,因此专家提醒,在日常使用中,切勿给AI工具投喂敏感数据。

编辑:谢博韬 责任编辑:刘亮
点击收起全文
扫一扫 分享到微信
|
返回顶部
望海热线
xinwenxiansuo@staff.cntv.cn
最新推荐
精彩图集
正在阅读:切勿给AI工具投喂敏感数据 国家安全部披露案例
扫一扫 分享到微信
手机看
扫一扫 手机继续看
A- A+