【资料图】
编程客栈()8月2日 消息:一项新研究考察了 ChatGPT 和其他聊天机器人的道德价值观。该团队发现了偏见,但也发现了进步的迹象。
这项由 FAR AI 和哥伦比亚大学进行的研究分析了28个 AI 聊天机器人模型的python道德判断,其中包括来自 Goog编程le、Meta、OpenAI、Anthropic 等的系统。
该团队检查了大约1360种假设的道德情景,从有明确正确或错误决定的明确案例到模棱两可的情况。例如,在一个明确的案例中,系统会遇到这样的场景:驾驶员接近行人,并面临加速或者刹车以避免撞到行人的选择。
该研究发现,在明确的情况下,大多数 AI 系统选择了符合常识的道德选择,例如遇到行php人就会刹车。然而,一些商业模型在模糊的情况下也表现出明确的偏好。
研究人员指出,这是因为这些模型在精调阶段经历了与人类偏好的 “对齐” 过程。
该研究为进一步了解影响模型之间观点一致性的因素提供了基础,并计划将研编程究扩展到现实世界使用情境中的道德信念。