为什么缩小大语言模型是生成式人工智能的未来?


(资料图片仅供参考)

本文概要:

1. 大型语言模型(LLM)在企业使用中存在明显挑战,而较小的语言模型则可以更好地适应企业需求。

2. 较小的语言模型可以在现有的安全环境中进行操作和训练,速度更快、准确性更高。

3. 较小的语言模型可以基于企业的敏感数据进行定制,与其他数据集结合使用,为企业提供更有价值的洞察力。

编程客栈() 8月15日 消息:很多企业热衷于接入生成式人工智能,但像 ChatGPT js这样的大型语言模型 给企业使用带来了明显的挑战。本月的一项 研究 发现,75% 的组织正在考虑或已经实施生成式人工智能应用的禁令,理js由是安全、隐私和其他问题。训练大语言模型的高昂成本也 被视为采用的重大障碍。

据报道,像 ChatGPT 这样的法学硕士 接受了超过1000亿个“参数”或决定模型行为的值的训练。这使得它们的建造和运营成本极其昂贵——训练 ChatGPT的估计成本 为400万美元。

为了从生成式人工智能中获得价值,未来的发展方向在于更小的语言模型,它们仅需要更少的时间和资源来维护,并且可以在企业的安全云环境中进行操作。较小的语言模型可以针对更窄的任务集进行优化,从而实现更快速和更准确的结果。

与公共 LLM 不同,较小的语言模型可以通过训练企业最敏感的数据进行定制,而无需将数据输入到公共 LLM 中,因python此安全和隐私风险编程客栈较低。这些较小的模型还可以结合第三方数据源,如经济数据、商品价格、天气等,为企业提供更全面的洞察力。

未来,可能会出现只有少数几个被广泛使用的基础 LLM,由 Meta、Google 和百度等技术巨头运营。较小的语言模型有着广阔的应用前景,可以在公司或部门级别提供有价值的洞察力,是释放生成式人工智能真正力量的关键。

推荐DIY文章
当智能健身走向全民化:AEKE轻力量家庭智能健身房引领未来
海艺AI:迎合“AI时代”发展潮流,刷新绘图市场传统认知
布局产业新高地!海星医药健康创新园B区奠基仪式隆重举行
未来五年500亿投入打底,北汽蓝谷锚定细分市场增量
【展会直击】华秋慕尼黑上海电子展精彩ing,助力电子产业高质量发展!
桂花网蓝牙网关助力司乘人员职业健康监测
精彩新闻