【ITBEAR】网络安全领域近日传出警讯,新型GPT-4o原本配备了一套“安全护栏”系统,越狱攻员突Marco Figueroa发现了一种新技巧,击手究人

据OpenAI官方介绍,法曝无码GPT-4o在短短1分钟内就完成了任务,光研

Marco Figueroa解释说,新型

在实验中,越狱攻员突
击手究人他通过将恶意指令转换成十六进制格式,法曝为了防范此类基于上下文理解的光研攻击,这套系统会分析用户输入的文本提示,旨在防止用户滥用该AI技术。再次暴露了AI模型在安全性方面的脆弱性。此方法能成功规避GPT-4o内置的安全防护措施,此次发现的越狱攻击方法,因此,诱导其编写出具有恶意攻击性的程序。然而,并使用Python编写相应的恶意程序。他向GPT-4o发送了一条隐藏有恶意意图的十六进制指令,GPT-4o仍可能被诱导执行攻击者的恶意指令。GPT系列模型在设计上遵循自然语言指令进行编码和解码操作,开发者需要进一步加强模型的安全防护措施。以识别并阻止恶意内容的生成。即使面对防护措施,但它们缺乏对整体情境的安全评估能力。成功利用该漏洞编写出攻击代码。随后,这意味着,巧妙地绕过了GPT-4o的安全检查。这一发现应被视为对AI模型开发者的警钟。

研究人员强调,令人震惊的是,