AI打败AI!谷歌科学家用GPT-4 击败AI防篡改系统


(资料图片仅供参考)

编程客栈()8月1日 消息:Google 科学家进行一项实验研究,他们使用 OpenAI 的 GPT-4聊天机器人来攻破其他机器学习模型的安全防护措施。这项实验证明了聊天机器人作为研究助手的价值。

具体来说,谷歌 Deep Mind 的研究科学家 Nicholas Carlini在一篇题为“AI-Guardian 的 LLM 辅助开发”的论文中,探讨了如何通过指导 GPT-4设计攻击方法并撰写攻击原理的文本,以欺骗 AI-Guardian 的防御机制。AI-Guardian 是一种防御对模型的攻击的系统,旨在检测可能被篡改的图像以欺骗分类器。

GPT-4会发出用于调整图像的脚本(和解释)来欺骗分类器——例如,让它认为某人拿着枪的照片是某人拿着无害苹果的照片——而不会引发 AI-Guardian 的怀疑。AI-Guardian 旨在检测图像何时可能被操纵以欺骗分类器,而 GPT-4的任务是逃避该检测。

通过 GPT-4的帮助,攻击者能够成功地破解 AI-Guardian 的防御,使其从98% 的稳健性降低到仅8%。然而,AI-Guardian 的开发者指出,这种攻击方法可能在改进的版本中失效。

据了解,GPT-4作为研究助手的价值在于它能够快速生成代码,并且不会分心或疲劳,始终可用于完成指定的任务。然而,依赖 GPT-4并不完全解除人类合作者的责任,因为它仍然需要人类提供正确的提示并修复生成的代码中的错误。

虽然 GPT-4还存在一些限制,但随着大型语言模型的改进,它们将为计算机科学家提供更多时间来开展有趣的研究问题。

论文地址:https://arxiv.orandroidg/abs/2307.js15008

推荐DIY文章
海艺AI:迎合“AI时代”发展潮流,刷新绘图市场传统认知
布局产业新高地!海星医药健康创新园B区奠基仪式隆重举行
未来五年500亿投入打底,北汽蓝谷锚定细分市场增量
【展会直击】华秋慕尼黑上海电子展精彩ing,助力电子产业高质量发展!
桂花网蓝牙网关助力司乘人员职业健康监测
DNF新推出封号申诉:每个玩家180天内只能享受一次减少处罚时间机会 每日视讯
精彩新闻

超前放送