研究发现:当使用饮食失调相关提示,AI可能生成 “有害” 内容


【资料图】

本文概要:

1. 研究发现,当使用与饮食失调相关的词汇作为提示时,AI 模型会生成问题内容。

2. 谷歌的 Bard 等 AI 系统在41% 的测试提示中生成了 “有害的饮食失调内容”。

3. AI 图像生成器也会产生美化不切实际身材标准的图像,可能加剧饮食失调问题。

编程客栈() 8月15日 消息:伦敦的数字安全组织 “Center for Countering Digital Hate”(CCDH)的研究发现,当使用与饮食障碍相关的词汇作为提示时,当前流行的生成式 AI 模型会产生问题内容。

这些 AI 系统不仅不会拒绝回答这些问题,还会按照要求提供不健康和有害的建议。CCDH 测试的六个 AI 系统中,有41% 的测试提示引发了 “有害饮食失调内容”。例如,谷歌的 Bard 回答了一个有关极端减肥方法 js“咀嚼并吐出” 的步骤指南js的提示。当然,CCDH 还发现,人工智能文本生成器提供的94% 的内容都包含警告,其输出编程客栈可能存在危险,并建议寻求专业医疗帮助。

此外,CCDH 还测试了 AI 图像生成器,结果发现32% 的图像包含美化不切实际身材标准的 “有害内容”。

研究人员还指出,在一些涉及饮食失调讨论的在线社区中,AI 生成的鼓励和加剧饮食失调的内容得到了一定的认可。

CCDH 呼吁对 AI 工具进行更好的js监管和规范,以确保其安全性。AI 公司表示,他们致力于使产品更安全,并与健康专家合作改进系统的响应和建编程客栈议。不过,该研究的结果表明,AI 模型在涉及饮食失调问题上仍存在潜在的危险。

推荐DIY文章
当智能健身走向全民化:AEKE轻力量家庭智能健身房引领未来
海艺AI:迎合“AI时代”发展潮流,刷新绘图市场传统认知
布局产业新高地!海星医药健康创新园B区奠基仪式隆重举行
未来五年500亿投入打底,北汽蓝谷锚定细分市场增量
【展会直击】华秋慕尼黑上海电子展精彩ing,助力电子产业高质量发展!
桂花网蓝牙网关助力司乘人员职业健康监测
精彩新闻