当前位置:商业频道首页 > 游戏 > 正文

研究发现用诗歌的形式提出请求可绕过AI的安全准则(3)

1200条模型转化的诗歌提示诱导的不安全响应略少,9家提供商的大型语言模型总体攻击成功率为43%。尽管这一数值低于手工创作的诗歌攻击,但仍比MLCommons基准的散文形式提示高出五倍多。

在模型转化的提示测试中,Deepseek的表现最差,超过70%的恶意诗歌都成功诱导其出错;而Gemini对恶意诗歌的易感度仍超过60%。与此同时,GPT-5对诗歌依旧“兴趣缺缺”,拒绝了95%-99%的诗歌形式操纵尝试。话虽如此,5%的失败率也绝非令人安心——这意味着1200条攻击诗歌中,约有60条能让ChatGPT泄露敏感信息。

有趣的是,研究指出,规模更小的模型(即训练数据集更有限的大型语言模型)实际上对诗歌形式的攻击更具抗性。这可能表明,随着训练数据广度的扩大,大型语言模型对风格化操纵的易感度反而会提升。

“一种可能性是,小型模型解析比喻或隐喻结构的能力较弱,限制了它们识别诗歌语言中隐藏有害意图的能力,”研究者写道。另一种可能性是,大型语言模型数据集中“大量的文学文本”可能使其对叙事和诗歌模式形成更丰富的表征,从而覆盖或干扰安全启发式算法。文学,成了计算机的阿喀琉斯之踵。

“未来的研究应探索诗歌结构的哪些特性导致了这种错位,以及是否能识别并约束与叙事和比喻语言相关的表征子空间,”研究者总结道,“若缺乏此类机制性洞察,对齐系统仍将易受低代价转化的攻击——这些转化完全符合合理的用户行为,却超出了现有安全训练的数据分布范围。”

热点推送

本周关注

MORE