黑客在HuggingFace上传包含恶意代码的AI模型对开发者展开攻击

安全 来源:蓝点网 2025-02-10 05:39:13

HuggingFace 是目前最热门的模型托管平台,各大 AI 公司都将自己的开源或开放模型托管在该平台供开发者们下载,因此也总有些黑客试图通过该平台展开攻击。

网络安全研究人员 Karlo Zanki 就注意到该平台出现两个包含恶意代码的机器学习模型,这些模型通过技术手段绕过 HuggingFace 的安全性检测。

HuggingFace 使用名为 Picklescan 的工具检测恶意模型,该工具本质是就是用来检测可疑的 Pickle 文件,但此次黑客使用的方式可以绕过检测。

具体来说黑客创建的这些模型通过 PyTorch 格式存储,这是压缩的 pickle 文件,默认情况下 PyTorch 使用 ZIP 格式进行压缩,但被识别出来的这两个恶意模型使用 7z 格式压缩。

对提取出来的内容进行分析后,研究人员发现这些模型包含恶意负载,可以连接到硬编码的 IP 地址,借助 shell 收集设备信息并对开发者展开攻击。

所以各位在网上下载模型时也需要提高警惕,一方面应当通过 HuggingFace 这类较为知名的平台下载模型,另一方面也要确认模型的发布者,尽可能选择经过认证的公司 / 开发者。

这两个恶意模型名称:

glockr1/ballr7

who-r-u0000/0000000000000000000000000000000000000

关注公众号:拾黑(shiheibook)了解更多

友情链接:

下软件就上简单下载站:https://www.jdsec.com/
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接