【资料图】
本文概要:
1. 研究发现,当使用与饮食失调相关的词汇作为提示时,AI 模型会生成问题内容。
2. 谷歌的 Bard 等 AI 系统在41% 的测试提示中生成了 “有害的饮食失调内容”。
3. AI 图像生成器也会产生美化不切实际身材标准的图像,可能加剧饮食失调问题。
编程客栈() 8月15日 消息:伦敦的数字安全组织 “Center for Countering Digital Hate”(CCDH)的研究发现,当使用与饮食障碍相关的词汇作为提示时,当前流行的生成式 AI 模型会产生问题内容。
这些 AI 系统不仅不会拒绝回答这些问题,还会按照要求提供不健康和有害的建议。CCDH 测试的六个 AI 系统中,有41% 的测试提示引发了 “有害饮食失调内容”。例如,谷歌的 Bard 回答了一个有关极端减肥方法 js“咀嚼并吐出” 的步骤指南js的提示。当然,CCDH 还发现,人工智能文本生成器提供的94% 的内容都包含警告,其输出编程客栈可能存在危险,并建议寻求专业医疗帮助。
此外,CCDH 还测试了 AI 图像生成器,结果发现32% 的图像包含美化不切实际身材标准的 “有害内容”。
研究人员还指出,在一些涉及饮食失调讨论的在线社区中,AI 生成的鼓励和加剧饮食失调的内容得到了一定的认可。
CCDH 呼吁对 AI 工具进行更好的js监管和规范,以确保其安全性。AI 公司表示,他们致力于使产品更安全,并与健康专家合作改进系统的响应和建编程客栈议。不过,该研究的结果表明,AI 模型在涉及饮食失调问题上仍存在潜在的危险。