发布时间:2024-09-16
Hugging Face,全球最大的开源AI社区,近日曝出严重安全漏洞。据报道,该平台至少有100多个恶意AI模型实例,其中一些可以在用户的机器上执行恶意代码,为攻击者提供持久的后门访问权限。这一事件不仅暴露了开源AI社区面临的独特安全挑战,也引发了人们对AI技术安全性的深刻担忧。
开源AI社区面临的首要安全挑战是模型供应链安全。Hugging Face等平台提供了大量预训练模型,供开发者直接下载使用。然而,这些模型可能被恶意篡改,植入后门或恶意代码。JFrog安全团队发现,一些恶意模型通过在PyTorch模型文件中植入恶意序列化数据,实现在加载模型时执行任意代码。这种攻击方式隐蔽性强,难以被常规安全扫描发现。
另一个值得关注的安全问题是数据集安全。腾讯朱雀实验室发现,Hugging Face的datasets组件存在不安全特性,可能导致供应链后门投毒攻击。当开发者使用该组件加载包含恶意代码的数据集时,会导致PC或服务器被入侵,甚至可能导致大模型参数被窃取或篡改。据统计,datasets组件最近一天的下载量将近10万,一旦有恶意数据集被大范围传播使用,将对大量开发者造成严重影响。
这一安全事件对AI开发者、用户和整个行业都产生了深远影响。对开发者而言,他们需要重新评估所使用的开源模型和数据集的安全性,增加额外的安全审查步骤。对用户来说,他们可能面临数据泄露、系统被控制等风险。对整个AI行业而言,这起事件暴露了AI技术在快速发展中忽视的安全问题,可能会影响用户对AI技术的信任。
面对这些挑战,我们需要从技术和制度两个层面着手,共同提升AI生态的安全性。在技术层面,Hugging Face已经开始推广使用更安全的Safetensors格式来存储模型数据,只保存模型关键数据而不包含可执行代码。同时,加强恶意软件扫描、Pickle扫描和Secret扫描等安全措施,及时发现和标记不安全的模型。在制度层面,需要建立更严格的模型和数据集审核机制,鼓励开发者使用可信来源的资源,提高整个行业的安全意识。
AI技术正在深刻改变我们的生活和工作方式,但随之而来的安全风险也不容忽视。Hugging Face的安全漏洞事件为我们敲响了警钟,提醒我们AI安全的重要性。只有政府、企业和研究机构共同努力,才能构建一个安全、可靠的AI生态系统,让AI技术真正造福人类社会。