UC伯克利发布大语言模型榜单 清华ChatGLM冲进前五


【资料图】

编程客栈()5月5日 消息:日前javascript,UC伯克利发起了大语言模型版排位赛,让大语言模型随机进行BATtle,并根据它们的Elo得分进行排名。

排行榜数据显示,Vicpythonuna以1169分排名第一,Koala位列第二。这两个模型都有130亿参数。LAION的Open Assistant排在第三。

清华提出的ChatGLM,虽然只有60亿参数,但依然冲进了前五,只比130亿参数的Alpacapython落后了23分。

相比之下,Meta原版的LLaMa只排到了第八(倒数第二),而Stability AI的StableLM则获得了唯一的800+分,排名倒数第一。

这个排位赛可以让人们更好地了解各个聊天机器人的表现,同时也能促进大语言模型的发展。该排位赛会把国内和国外的这些「闭源」模型都搞进来。目前,所有的评估代码以及数据分析均已公布。

团队表示,之后不仅会定期更新排位赛榜单,而js且还会优化算法和机制,并根据不同的任务类型提供更加细化的排名。

推荐DIY文章
海阔天空信乐团歌词详解 整首歌意境高远大气磅礴_环球热议
母亲节用英语怎么说 母亲节的英文介绍都是怎样的
日产gtr改装案例 这一款众所周知的高性能跑车该怎么改|全球最新
水泥胶砂搅拌机的使用步骤 为何要用水泥砂浆搅拌机清洗仪器 天天速讯
采访提纲格式 如何写好采访 面试提纲的基本格式就是这么简单
世界热文:济南野生动物园门票介绍 60-69周岁的老年人可持证件购买半价票
精彩新闻

超前放送