(资料图片仅供参考)
本文概要:
1. 研究人员通过添加两个词来减少大型语言编程客栈模型中的幻觉。
2. 这种简单的技术可以提高答案的准确性。
3. 该技术对于较大的指令调整模型最为有效。
编程客栈()8月4日 消编程息:约翰霍普金斯大学的研究人员发现了一种简单的技术,可以减少大型语言模型(LLM) 中的幻觉并提高答案的准确性。通过在查询中添加“根据”,LLM更有可能引用观察到的文本并提供事实信息,而不是捏造答案。
他们使用 QUIP 分数指标对语言模型的回答进行审查,发现当在查询中加入“根据维基百科……”等基础提示时,引用信息的准确性可以提高5-15%。这种技术尤其在较大的指令调整模型中表现出色。
研究人员指出,通过使用基础提示词python,大型语言模型更有可能引用观察到的文本并提供真实的事实信息,而不是虚构的答案。
这一发现有助于提高人工智能系统的可信度和准确性,并减少系统产生虚假信息的情况。然而,研究人员也指出,这种技术在不同的语言模型和应用场景中可能会有所不同,需要进一步的研究和优化。
总体而言,这项研究为改进语言模型的质量和可靠性提供了一个简单有效的方python法。