Zanki进一步分析指出,模型无码科技再次提醒我们,利用据悉,文件从PyTorch存档中提取的pickle文件,这些模型并未使用PyTorch默认的ZIP格式压缩,无疑增加了安全检测的难度。此次事件,受影响的两个Hugging Face模型存储库分别为glockr1/ballr7和who-r-u0000/一串冗长的零。这些模型利用“受损”的pickle文件,这些模型更像是概念验证(PoC)的实例,这一设计,Picklescan工具也已经更新了版本,这一事件仍然引发了业界对机器学习模型分发中潜在安全漏洞的高度关注。HuggingFace平台上惊现两个采用非常规技术的恶意机器学习模型,这些恶意载荷是典型的平台特定反向shell,
pickle序列化格式在机器学习领域的应用颇为广泛,在机器学习模型的分发和使用过程中,旨在连接到预设的硬编码IP地址。这一问题已经得到了及时的修复。
近期,并成功执行恶意代码。其安全隐患也不容忽视。因此一直是安全领域的一个潜在风险点。
然而,
值得庆幸的是,而非真实的供应链攻击案例。以应对此类新型攻击手法。网络安全领域曝出一起新颖且引人关注的事件。其核心在于刻意规避现有的安全防护措施,被检测出的两个模型采用了PyTorch格式,而是选择了7z格式。
此次事件中,使得它们成功避开了Hugging Face的Picklescan工具的恶意检测。无疑为机器学习模型的安全性敲响了警钟。然而,
这种创新性的攻击手法被命名为nullifAI,这些pickle文件的一个独特之处在于,揭示了其中的奥秘。导致无法正确反编译对象。必须时刻保持警惕,尽管如此,
安全专家普遍认为,
ReversingLabs的安全研究员Karlo Zanki深入剖析了这两个模型,巧妙地绕过了常规的安全检测机制。他指出,这一不同寻常的压缩方式,