讯飞华为,竟悄然已在大模型上联手?!
一个算法软件,一个硬件芯片,两个国产代表性公司已经选择强强联合。
事情是酱婶的。
(资料图片仅供参考)
我去世界人工智能大会(WAIC)逛展来到华为展区,结果却看到了科大讯飞的星火大模型。一开始还以为是展台摆错了,了解之后才知道是华为和科大讯飞联手了。
这下双厨狂喜。而且不光他俩,现场还发现了很多这样的合作伙伴……
此次世界人工智能大会,简直可以说是来到国产大模型主场。
从底层芯片到前端应用,从互联网大厂javascript到初创公司,基本上全都是大模型产业链上的小伙伴。
甚至于你到一家芯片公司展区,一眼望去都全是是大模型产品展示……
而来到一众大模型展台(P.S.据称现场来了30多款大模型),也已经不再是基础功能的展示,反倒是直接快进到各种行业应用:
大模型+医疗、大模型+金融、大模型+汽车、大模型+教育、大模型+办公、大模型+工业……
今年也就不过几个月时间,大模型这么快地就在行业应用落地了?!
从模型层来划分,可以大致分为三类:通用大模型、多模态大模型、垂类大模型。
通用大模型自然不必多说,诸多此前被冠以国产ChatGPT之称的大语言模型,已经在各个代表性行业中应用,与企业展开合作。
相较于后两者而言,产品形态更加成熟,比如网页端、APP、小程序,用户也能轻易感知到。
其中,讯飞星火APP是目前唯一全渠道上线的国产大模型产品——
已在苹果、华为、小米、OPPO、vivo、腾讯应用宝等手机应用商城上架,以及网页端、小程序和H5等
其推出的助手中心,涵盖1000+智能应用,包括职场、营销、点评、创作、学习、出行等场景。用户可选择特定场景发出指令处理任务。
多模态大模型方面,作为大模型一种基础能力,更多体现在与人交互的行业应用上,比如首个机器人多模态大模型RobotGPT、还有各种虚拟人、数字人等。
就是在线上看到那个AI新闻官,背后也是大模型的能力。
至于垂类大模型,成为了此次主场一道亮丽的风景线。更多看似“跨界”玩家在这里,直接给出了面向特定场景的行业大模型,为客户提供定制化、私有化服务。
像中国电信给出面向通信政务司法等场景的千亿参数语翼(TeleChat)大模型;星环科技给出的大数据和金融行业的两个大模型:大数据分析大模型SoLar“求索”、星环无涯金融大模型,还有针对像创意写作、消费、企业服务、直播带货等大模型的亮相。
而如果从行业划分,至少从现在来看,多个行业已经有了成熟并已落地应用的典型场景。(我们以科大讯飞为例)
大模型+医疗。
主要是辅助医疗场景,以诊后管理为例,在患者走出医院那刻开始,大模型就将根据患者信息生成为其90天的康复计划。包括医生提醒、用药指导、康复运动、健康知识、健康档案等,并且可以随时与主治医生交流。
患者只需要通过小程序就可以查看。据现场工作人员介绍,目前这套解决方案正在与安徽某医院合作落地。
大模型+金融。
目前主要落地场景是智能客服,解决以往复杂问题难理解、专业知识更新不及时,应用不准确,多轮交互复杂场景等问题。
据介绍,下半年科大讯飞将择机发布人保大模型星火智能客服规模应用、金融行业信息服务平台及证券行业智能助手、星火语音客服及星火智能数据分析系统。
在大模型+工业上则是以企服助手为典型应用。
根据不同企业,结合专有行业数据,大模型可以解决横跨研、产、供、销、服、管等整套工业流程各个复杂问题,给员工给出专业解答。
当然这也还不是全部,如果更为细分,像大模型+教育,在WAIC现场竟然已经看到了最小面向3岁小孩的AI学习机。
这些都是大模型应用落地提速的一些直观展现。
短短半年时间编程客栈,国产大模型从诞生到应用落地,背后究竟是怎样的一个方法论?
距ChatGPT问世已有7个多月,业界对大模型落地的探索也初步分化出不同路线。
最简单直接的,就是AI公司研发大模型并对外提供应用产品或API,按使用量收取费用。
还有一种谷歌模式,从底层TPU芯片,到谷歌云基础设施,再到LaMDA、PaLM基础大模型,最终到Bard产品全都自研。
OpenAI则在此基础上还多了一层与微软的联盟,一方面让自家大模型在Office、Windows这样的全民级产品上大展拳脚,又能获得强大的Azure云基础设施和算力支持。
哪种模式更值得看好,当下似乎并不明晰,但如果回看历史,就不难发现一些规律。
如果说大模型最终能成为AI时代新的操作系统,那么OpenAI与微软的联盟就很容易让人想起计算机史上另一个联盟——
Wintel联盟,个人计算机历史上的一大里程碑。
上世纪80年代末开始,微软的Windows操作系统和英特尔的处理器成为了PC标准的关键组成部分,这个联盟的成功之处至少可以分成以下3个方面:
兼容性和标准化。
Wintel联盟使硬件和软件开发者可以围绕统一标准做开发,降低了成本提高了效率。对于消费者来说,这意味着他们购买的产品能够与大多数软件和硬件同时兼容。
优势互补。
微软的软件和英特尔的硬件相互配合,形成完整的解决方案占领市场的同时,两家公司可以集中精力做自己擅长的事。
相互推动规模效应和创新。
软件功能越来越复杂,需要更强大的硬件支持;硬件的性能提升反过来也给下一代软件设计提供更多空间和想象力。
如此一来,Wintel联盟帮助两家公司在过去的几十年里在个人计算机市场中取得了显著的成功。
如今这一幕再次上演,只不过微软成了提供硬件基础设施的那一方。
而且以现在的行业形势,竞争更加激烈,很难再复刻当年的垄断结局了。
云计算一哥亚马逊与HuggingFace、StabilityAI等开源新势力达成合作,大数据巨头Databricks豪掷13亿美元收购大模型初创公司MosaicML等都是这个思路下的产物。
这一点在此次WAIC上也得到了印证:
科大讯飞与华为率先牵手合作,就是一个行业示范。
讯飞星火大模型之所以表现良好,是因为扎根在其研发的讯飞火石平台这个底座上,实现了大模型数据稀疏化、低精度量编程化等技术突破。
之所以能取得这样的突破,也是在充分利用华为昇腾算力平台,在算子优化、并行优化以及信息化等一系列优势基础之上完成的。
同时星火大模型与昇腾AI高效适配,也加速了大模型的行业落地应用和迭代。
现在距星火大模型推出不过两个多月,我们在世界人工智能大会现场已经能找到不少它的身影。
而且不仅如此,科大讯飞与华为的合作还多了一层含义。
让国产大模型架构在自android主创新的软硬件基础设施之上,一方面国产化平台给大模型提供自主可控的保障,另一方面大模型落地带来的大量使用、测试,也给国产硬件改进、提高规模效应提供了宝贵机会。
关于这一点,科大讯飞高级副总裁、认知智能全国重点实验室主任胡国平也在大会的昇腾智能产业高峰论坛上进行了更详细的解读。
往年世界人工智能大会,参与者主要还是相关行业内人士为主,今年却悄悄发生一些有趣的变化。
受这半年多来AI热潮的带动,不少科技爱好者特别是AI绘画爱好者、以及各行各业的职场人也都会来看看。
AI消费级应用与产业级应用都来到了风口浪尖。
而这其中原因,胡国平归结到大模型的通用性上,并提出科大讯飞要抢抓通用人工智能带来的历史新机遇 。
胡国平介绍到,科大讯飞在外界看来是语音起家,但语音和语言其实是不分家的。
早在2014年,科大讯飞就提出超脑计划,目标是在能听会说的基础上更进一步,让机器能理解会思考。
这一轮通用人工智能大浪潮来的时候,科大讯飞在去年12月15号紧急启动1+N认知智能大模型的专项攻关。
我们看到的讯飞星火就是其中的“1”——通用认知大模型,5月6日正式发布,xmMoX6月9日火速升级到1.5版本。
10月24号,也就是科大讯飞的1024全球开发节的时候,讯飞星火会发布全新版本,到时能够全面对标ChatGPT,并且在中文上实现超越。
之所以能有这样的进化速度,胡国平认为,一方面来自大模型与大脑原理层类似,预示着大模型无限潜力。
人工智能历史上经过四次起伏,不断迎来热潮又陷入寒冬,有可能终于找到正解。
也就是大模型的涌现能力,真正有可能支撑机器的智能真正走向通用人工智能。
而另一方面与合作伙伴之间的强强联合离不开关系。
模型的研发强烈依赖高端AI芯片集群和生态。除了芯片算力指标以外,带宽、显存,芯片之间集群的方式都是关键。
对国产大模型来说,要持续的安全和发展的关键,要靠国产AI芯片和配套软件整个生态的快速发展。
讯飞星火就充分利用了昇腾的国产化算力的平台的基础之上,通过高效适配的来加速了整个AI的落地工作。
双方合作之下也实现了训练和数据闭环的全流程的设计,以及大模型的训练和推理的一体化设计等等相关创新,有效的支撑了科大讯飞的讯飞星火一步一个脚印的持续的进步。
胡国平提出,未来对算力的需求又持续不断的增长,对训练数据的消耗也非常大。
而抢抓这个历史新机遇的关键基础,就是要全力打造我国通用智能的新底座。