一直以来,Google 搜索引擎的市场占比一骑绝尘,让很多竞争者望而却步。
不过,现如今,随着一种名为ChatGPT聊天机器人的到来,在现身吟诗、写代码、编段子,甚至还上线司法考试现场的一个多月时间里,让Google 敲响警铃,更有多方媒体报道,Google 内部正拉起了一道「红色代码警戒」(Code red),担心 ChatGPT 将对 Google 搜索引擎的未来带来巨大挑战。
【资料图】
与之形成鲜明对比的是,排在第二位且占比仅有3.04% 的 Bing 显得悠然自得一些。据外媒 The Information 最新发布的一篇报道显示,微软可能会在2023年3月之前在 Bing 中应用 ChatGPT,用人工智能来回答一些搜索查询。
微软与 ChatGPT 背后的开发商 OpenAI 之间的合作关系早已不是什么秘密,现如今回过头来看,不少人敬佩起微软的先见之明。
创立于2015年的 OpenAI,自诞生之日起,便以促进和发展友好的人工智能为目标。时至今日,其相继推出了 GPT-3、DALLE2、ChatGPT等重磅模型,推动了人工智能一次又一次地成功落地。
然而,起初作为一家非营利机构,OpenAI 并没有找到自身的营利模式。
宛如其对标的 Google 旗下的 Deepmind 部门,也曾一度陷入到亏损、负债的迷茫中。彼时,据《彭博社》报道,2018年,谷歌母公司 Alphabet Inc. 收购的人工智能公司 DeepMind 的收入几乎翻了一番,但却因为亏损增至数十亿美元,收益情况不容乐观。一直以来,DeepMind 的盈利能力依然备受质疑。
处于同一起跑线的 OpenAI 亦然也会面临“囊中羞涩”的尴尬问题。
不过,好在最初名不经传的 OpjavascriptenAI 带着马斯克的光环,渡过了研发的第一阶段。而后支撑到了2019年3月,OpenAI 也为其可持续开发做了打算,并成立了 OpenAI LP 子公司,主要目的就是为营利。
也是在这一年,OpenAI 的发展引起了微软的注意,随后的7月,微软宣布向OpenAI 投资10亿美元,双方携手合作替 Azure 云端平台服务开发人工智能技术,与此同时,OpenAI 也将用这笔巨款进一步推进通用人工智能(AGI)的研究。
2020年时,我们只知晓,在 OpenAI 推出 GPT-3语言模型时,微软于当年的9月22日取得独家授权。
当前,随着 The information 的报道,更多的细节被曝光出来,其中便包括早在2019年,微软在对 OpenAI 的投资包括了一项将 GPT 的某些方面纳入 Bing 中的协议。
具体来看,旧版本的 GPT 可以在用户输入时,自动提供搜索查询建议。如今,微软已经宣布计划将Dall-E2模型集成到 Bing Image Creator 中,方便用户可以在其中发出描述性文本提示并生成 AI 图稿。
据 The information 报道,有直接了解情况的人士称,微软即将发布的公告将揭示更多有意义的功能。
那么,如果搜索引擎引入 ChatGPT 聊天机器人,那么又将会以什么样的形式呈现?
据悉,这些AI 支持的答案可以采用包含信息来源的完整句子的形式呈现,而不是引用可能解决用户提出的问题来源或者链接列表的精选片段。
不过,“Bing 仍将依靠自己的技术来产生大部分搜索结果”,因为 GPT 并不意味着“像搜索引擎那样持续抓取网络或提供实时信息”。同时,Bing 如何确保答案的准确性还有待观察。
The Information 称这“可能会在今年3月底之前推出”,而 Bing 可能被定位为“免费访问部分 GPT 的唯一方式”。因为按照 OpenAI 的计划,他们将会对 ChatGPT 采取收费政策,对此,外媒也将微软评价为“为初创公司的云账单买单”的企业。
不过,微软此举能否让 Bing 逆袭“天下第一”的 Google 搜索引擎,很多网友表示:期待。
但也有不少人持怀疑态度,甚至还发起了一项投票:
为此,用户层面也形成了两个主要观点:
其一,android支持 ChatGPT 会打破传统搜索引擎的市场格局。
过去一个月期间,朋友圈一次又一次地刷屏,ChatGPT 的火爆程度有目共睹。
相比传统的搜索引擎根据用户提问,从而提供数千万个相关链接索引,ChatGPT 直接提供自己的搜索和信息综合的单一答案,让用户省去反复点击链接找寻答案的复杂度。
正是基于这一点,很多人坚信 ChatGPT 会面向传统搜索引擎发起挑战。
其二,ChatGPT 想要取代 Google 非常牵强,至少目前看来,不可能。
为了论述这一观点,外媒 Techtalks 此前也专门发布了一篇《为什么 ChatGPT 不会对 Google 搜索构成威胁》的文章,从大型语言模型(LLM)的真实性、更新、速度与商业化的角度进行了剖析。
真实性无法保证。
用 ChatGPT 作为辅助性建议的提供者,其实一点问题都没有。但是在学术、科研等严谨的应用场景中,ChatGPT 提供的答案并不一定都是正确的。解决 ChatGPT 输出的真实性将会是一项重大的挑战,不过,目前并没有办法从 ChatGPTphp的输出中分辨真伪,除非你用其他来源(如 Google)来验证答案。
然而,如果要使用大型语言模型来替代搜索引擎,此举未免有些弄巧成拙。
也许有人会说,Google 这类的搜索引擎未必也会提供100% 正确的答案,为什么不能对 ChatGPT 包容一些?
其实,Google 这类的搜索引擎至少为用户提供了可以验证的来源链接,但ChatGPT 只提供纯文本,不引用实际网站。虽然目前也有不少人将 LLM 输出的不同部分链接到实际网页,但这是一项复杂的研究工作,当前还无法通过纯粹的基于深度学习的方法来解决。
更新模型的成本太高
ChatGPT 和其他 LLM 面临的另一个挑战是更新他们的知识库。
搜索引擎的索引其实可以实时更新,也更为方便快捷一些,但对于大型语言模型而言,添加新的内容需要重新训练模型。
也许不是每次更新都需要完全重新训练模型,但是相比搜索引擎,其添加或者修改训练数据的成本都更昂贵。
据外媒报道,基于 GPT3.5,ChatGPT 可能至少有1750亿个参数。由于没有可以适合该模型的单个硬件,因此必须将其分解并分布在多个处理器上,例如 A100GPU。设置和并行化这些处理器以训练和运行模型既是技术挑战,也是财务挑战。
速度挑战
LLM 也有推理速度问题。搜索引擎不需要为每个查询浏览整个数据集。他们有索引、排序和搜索算法,可以以非常快的速度查明正确的记录。因此,即使在线信息量在增长,搜索引擎的速度也不会下降。
不过,LLM 每次收到提示时都会通过整个神经网络运行信息。其计算量要比搜索引擎的查询索引多很多。鉴于深度神经网络的非线性特性,推理操作的并行化程度是有限的。随着 LLM 训练语料库的增长,模型也必须变得更大,才能很好地泛化其知识库。
商业模式
目前,ChatGPT 还处于测试阶段,并没有落地的商业模式。不过此前据 TechCrunch 估计,拥有100万用户的 ChatGPT 每天花费100,000美元,每月花费约300万美元。
不难计算出如果全球的用户每天运行80亿次搜索查询时会发生什么。此外,再加上定期训练模型的成本,以及通过强化学习和人工反馈对模型进行微调所需的体力劳动。
综上而言,如果以单一的 ChatGPT 来对抗 Google 搜索引擎,也许胜算很小,甚至可以忽略不计,但是当下 Bing 的入局,而且按照微软的初步计划,其主要是将 ChatGPT 作为 Bing 的辅助功能,让二者相结合起来的模式,推动 Bing 的上位。
这让 Google 还在深陷于「自家也有类似于 ChatGPT 的能力人工智能语言模型 LaMDA ,但由于该技术带来的"声誉风险",公司不得不采取“比小型创业公司更保守的行动”」中,处于被动的位置。
这也为谁能笑到最后的搜索引擎战局,打上了一个问号。
参考:
https://datasciencelearningcenter.substack.com/p/could-bing-disrupt-google-with-chatgpt
https://9to5google.com/2023/01/03/bing-chatgpt-report/
https://bdtechtalks.com/2023/01/02/chatgpt-google-search/