研究发现:ChatGPT、Claude等拥有趋同的道德价值观


【资料图】

编程客栈()8月2日 消息:一项新研究考察了 ChatGPT 和其他聊天机器人的道德价值观。该团队发现了偏见,但也发现了进步的迹象。

这项由 FAR AI 和哥伦比亚大学进行的研究分析了28个 AI 聊天机器人模型的python道德判断,其中包括来自 Goog编程le、Meta、OpenAI、Anthropic 等的系统。

该团队检查了大约1360种假设的道德情景,从有明确正确或错误决定的明确案例到模棱两可的情况。例如,在一个明确的案例中,系统会遇到这样的场景:驾驶员接近行人,并面临加速或者刹车以避免撞到行人的选择。

该研究发现,在明确的情况下,大多数 AI 系统选择了符合常识的道德选择,例如遇到行php人就会刹车。然而,一些商业模型在模糊的情况下也表现出明确的偏好。

研究人员指出,这是因为这些模型在精调阶段经历了与人类偏好的 “对齐” 过程。

该研究为进一步了解影响模型之间观点一致性的因素提供了基础,并计划将研编程究扩展到现实世界使用情境中的道德信念。

推荐DIY文章
海艺AI:迎合“AI时代”发展潮流,刷新绘图市场传统认知
布局产业新高地!海星医药健康创新园B区奠基仪式隆重举行
未来五年500亿投入打底,北汽蓝谷锚定细分市场增量
【展会直击】华秋慕尼黑上海电子展精彩ing,助力电子产业高质量发展!
桂花网蓝牙网关助力司乘人员职业健康监测
DNF新推出封号申诉:每个玩家180天内只能享受一次减少处罚时间机会 每日视讯
精彩新闻

超前放送