随着pythonOpenAI 的 ChatGPT、Google 的 Bard 等 AIGC 工具的出现,由 AI 驱动的内容、信息、机器人已经在过去一年中迅速融入了 Web 网站之中。
然而,在这些工具带来极大便利、提升效率之际,虚假用户、垃圾广告、错误性消息也接踵而至。
(资料图)
就在几天前,一家社交应用初创公司IRL(IN REAL LIFE)估值一度高达17亿美元,并在软银领衔的 C 轮融资中筹集到了1.7亿美元。结果,根据董事会内部调查发现,该公司对外宣称的2000万月活用户中,其中有95% 都是“机器人”。
近日,一家为在线新闻媒体提供信任评级的公司 NewsGuard 发布了一项新分析显示,由于科技php巨头、银行等全球主要品牌的广告预算,他们正在向 AI 生成的低质量网站提供广告收入,让这些充斥着 AI 生成的低质量内容网站得到了大量的经济支持,且继续存活下去。
对此,外媒 The Verge记者 James Vincent总结道,「现如今,AI 正在杀死旧 Web,新 Web 艰难诞生」。而在他看来,这也未必是一件坏事。
短短几分钟,生成式 AI 便可以创造大量文本和图像
The Verge 指出,从广义上来讲,多年前,Web 网站曾经是个人创造创新的地方,很多人在网络上开发网站、论坛和邮件列表,并借此赚一点钱。
后来,很多公司成立,且觉得他们可以做得更好,于是他们android创建了灵活且功能丰富的平台,并敞开大门,让更多的人加入其中。
这就有些像,他们把盒子放在我们面前,我们在这些盒子里填满文字和图像,人们来看这些盒子里的内容。这些公司追逐规模,因为一旦有足够多的人聚集到这里,通常就有办法从中赚钱。
但人工智能的出现,改变了这些假设。
在 ChatGPT、Bard、新 Bing 流行的今天,它们可以快速生成大量的文本和图像,也可以制作音乐和视频。
现实来看,它们的输出可能会超越我们所依赖的新闻、信息和娱乐平台。
广告收入养活了大量 AI 生成新闻和信息的网站
据 NewsGuard 发布的数据,其从今年5月开始跟踪 AI 生成新闻和信息网站(UAIN),每周能发现25个新的 UAIN,如今可能有数百个 AI 生成内容网站。
那么这些充斥着大量 AI 内容的网站存在的意义是什么?
NewsGuard 指出,其中重要一点就是成为很多品牌公司的广告投放地。
分析师通过分析发现,投放在这些 UAIN 网站的广告是以编程方式生成的,这意味着很多知名公司并不是选择将自家的广告投放到 UAIN 上,而是由投放广告系统定位过来的,其中大多数广告是由 Google Ads 投放。
NewsGuard 表示,他们的分析师已将217个网站添加到其 UAIN 网站跟踪器中,其中许多网站似乎完全由程序化广告资助。
由于网站可以通过程序化广告赚钱,因此它们有动力经常发布内容。该公司发现其中一个 UAIN 网站,在今年6月9日至6月15日这一周发表了约8,600篇文章,平均每天约有1,200篇文章。
相比之下,新闻网站《纽约时报》每天发表约150篇文章,其背后的编辑、记者数量众多。
事实上,在今年5月和6月进行的最新研究中,NewsGuard分析师浏览了美国、德国、法国和意大利的网站,发现来自141个主要品牌的393个程序化广告出现在217个 UAIN 网站中的55个上。
这样的趋势之下,基于广告收入,让大量新型的AI 生成新闻和信息网站存活下去,充斥在网络的各个地方。
旧 Web 网站正在遭 AI “洗礼”
除此之外,大量 AI 生成的内容也渗透到了很多老牌社区、平台,如 LinkedIn 正在利用人工智能来激活用户;Snapchat 和 Instagram 希望当你的朋友不说话时,机器人会与你交谈等等。
与此同时,一些 Web 网站也正在被动地受到 Cha编程tGPT 的冲击,譬如,知名程序员社区 Stack Overflow 便是其一。
为此,今年早些时候,Stack Overflow 还紧急发布了“禁令”,称禁止使用 ChatGPT 生成的内容来回答 Stack Overflow 上的问题。
原因是:
不过,一味地阻止 AI 使用的扩展,并不是解决问题的根本。Stack Overflow 针对 AI 的使用,计划向那些在构建自己的人工智能工具时抓取其数据的公司收费。除此之外,Stack Overflow 自身也有计划提供 AI 相关服务。
另一个受到 AI 影响较大的平台便是问答社区 Reddit。“Reddit 的数据很有价值,但是我们不需要将所有这些价值免费提供给世界上一些最大的公司”,当 Reddit CEO Steve Huffman 说出这句话时,便意味着该公司会有所动作了。
令人万万没想到的是,其更新了Reddit API 收费政策,想要从中获得更多收入,也为了让其数据有一定的价值体现时,却遭到了很多版主实施封锁社区版块以示抗议。
最后,作为很多网站访问的入口,全球第一大搜索引擎 Google 掌握着现代 Web 网站的命脉。不过,受 Bing AI 和 ChatGPT 作为替代搜索引擎的趋势推动,Google 也正在采取行动,有媒体报道称,Google 正寻求打造一款由 AI 技术驱动的全新搜索引擎,新引擎的一大特点是“能够猜到用户的需求”,该引擎将根据用户的搜索内容,学习并预测用户想要知道的事情,并且将提供预先挑选的购买物品、研究信息和其他信息的清单。如果 Google 真的实施这一计划,那么 AI 对传统网站带来的影响将是巨大的。
让 AI 掌舵 Web 网站,会发生什么?
毋庸置疑,AI 现在变得无处不在,倘若所有的平台,都被 AI 蚕食,又会有什么样变化?
对此,科技网站 Tom"s Hardware 的主编 Avram Piltch 指出,尽管人工智能拥有重组文本的能力,但最终创建底层数据的是人——无论是记者拿起电话核查事实,还是在遇到电池问题时 Reddit 用户能很高兴告诉你是怎么修复它的。
相比之下,AI 语言模型和聊天机器人产生的信息通常不一定对,更为棘手的是,当它出错时,其错误方式往往很难被发现。因此,这需要时间和专业知识来进一步核实。
如果机器生成的内容取代了人类的作者身份,那么在原本只有人犯错的基础上,有多了 AI 本身就会犯错,甚至一定程度上阻碍了人类专业知识的汲取能力,那么纠正我们集体错误的机会就会减少。
与此同时,The Verge 记者 James Vincent 指出,人工智能对 Web 的影响并不是那么简单就可以概括的。即使在上面引用的少数例子中,也有许多不同的机制在起作用。
在他看来,最成功的网站往往是利用规模发挥其优势的网站,要么通过增加社会联系或产品选择,要么通过对构成互联网本身的巨大信息群进行分类,但这种规模依赖于大量人类来创造潜在价值,在大规模生产方面,人类显然无法击败人工智能。
但这一定是一件坏事吗?
其实不然,James Vincent 认为,“有些人会说这只是世界运行的一种方式,并指出 Web 本身杀死了之前的事物,而且往往是为了变得更好。例如,印刷版百科全书几乎已经绝迹,但我更喜欢维基百科的广度和可访问性,而不是《大英百科全书》的厚度和保证。对于与人工智能生成的写作相关的所有问题,也有很多方法可以改进它——从改进的引文功能到更多的人工监督。另外,即使 Web 尽管充斥着人工智能垃圾,但它可能会被证明是有益的,能够刺激资金更充足的平台的发展。例如,如果 Google 总是在搜索中给你提供垃圾结果,你可能会更倾向于为你信任的来源付费并直接访问它们。”
事实上,人工智能目前造成的变化只是 Web历史上长期斗争中的最新一个。从本质上讲,这是一场信息之战——谁制造信息、如何访问信息以及谁获得报酬。但仅仅因为战斗是熟悉的并不意味着它不重要,也不能保证后续的系统会比我们现在的系统更好。新 Web 正在努力诞生,我们现在做出的决定将决定它的发展方式。
参考:
https://www.theverge.com/2023/6/26/23773914/ai-large-language-models-data-scraping-generation-remaking-web
https://uk.news.yahoo.com/major-brands-unwittingly-supporting-ai-053037263.html