研究人员发现使用“根据”这个词可减少 AI 幻觉


(资料图片仅供参考)

本文概要:

1. 研究人员通过添加两个词来减少大型语言编程客栈模型中的幻觉。

2. 这种简单的技术可以提高答案的准确性。

3. 该技术对于较大的指令调整模型最为有效。

编程客栈()8月4日 消编程息:约翰霍普金斯大学的研究人员发现了一种简单的技术,可以减少大型语言模型(LLM) 中的幻觉并提高答案的准确性。通过在查询中添加“根据”,LLM更有可能引用观察到的文本并提供事实信息,而不是捏造答案。

他们使用 QUIP 分数指标对语言模型的回答进行审查,发现当在查询中加入“根据维基百科……”等基础提示时,引用信息的准确性可以提高5-15%。这种技术尤其在较大的指令调整模型中表现出色。

研究人员指出,通过使用基础提示词python,大型语言模型更有可能引用观察到的文本并提供真实的事实信息,而不是虚构的答案。

这一发现有助于提高人工智能系统的可信度和准确性,并减少系统产生虚假信息的情况。然而,研究人员也指出,这种技术在不同的语言模型和应用场景中可能会有所不同,需要进一步的研究和优化。

总体而言,这项研究为改进语言模型的质量和可靠性提供了一个简单有效的方python法。

推荐DIY文章
海艺AI:迎合“AI时代”发展潮流,刷新绘图市场传统认知
布局产业新高地!海星医药健康创新园B区奠基仪式隆重举行
未来五年500亿投入打底,北汽蓝谷锚定细分市场增量
【展会直击】华秋慕尼黑上海电子展精彩ing,助力电子产业高质量发展!
桂花网蓝牙网关助力司乘人员职业健康监测
DNF新推出封号申诉:每个玩家180天内只能享受一次减少处罚时间机会 每日视讯
精彩新闻

超前放送