近几个月来,一些征兆和预示正在日益增多:Twitter上的内容越来越低质化,TikTok上的内容也越来越糟。大规模裁员正在摧毁网络媒体,一个求职广告中寻找一位“人工智能编辑”,要求其每周能输出200到250篇文章。ChatGPT正在被用来生成整个垃圾网站,聊天机器人在一个错误信息的循环中相互引用。领英正在利用AI刺激疲惫的用户。Snapchat和Instagram希望当你的朋友不理你时,机器人能和你对话。Reddit用户正在进行抵制AI行动。StackOverflow的版主正在罢工。互联网档案馆正在抵抗数据爬虫,而人工智能正在撕裂维基百科。老网络正在死亡,新网络努力诞生。 多年以来,网络一直都在死亡:它一直在被流量和算法杀死。但在2023年,网络再次死亡,上述这些正在发生的例子引出了新的互联网杀手:人工智能。 多年前,互联网曾是个人创造内容的地方。人们制作个人主页、论坛、博客,并通过这些渠道获得少量的收入。然后公司们认为他们可以做得更好。这些公司创建了功能丰富的平台,并向任何人开放。他们在我们面前摆放了许多框,我们在这些框里填充了文字和图片,人们就来看这些框里的内容。公司们追求规模,因为只要有足够的人在某个地方聚集,通常总会有办法从他们身上赚钱。但是,人工智能改变了这种模式。 只要有足够的资金和计算能力,人工智能系统可以毫不费力地扩展。它们产出大量文字和图片,很快还将产出音乐和视频。它们输出的内容可以轻易淹没我们用于获取新闻、信息和娱乐的平台。但是,这些内容的质量往往很差。这些模型是在上个网络时代堆积的数据层上进行训练的,人工智能公司们从开放的网络中抓取信息,然后将其精炼成机器生成的内容,这些内容虽然生成成本低,但却不太可靠。而这种不可靠的产品正在与人工产出的内容竞争关注度。 近几个月来,在一些全球范围内最受欢迎且最有用的网站——如Reddit、维基百科、StackOverflow以及谷歌本身——的讨论和实验揭示了人工智能系统出现所带来的压力。 Reddit的版主正在进行抵制行动,因为该公司表示将大幅提高访问其API的费用,公司的高管表示,这些变化是对AI公司抓取其数据的回应。Reddit的创始人兼CEO SteveHuffman对《纽约时报》表示:“Reddit的数据非常有价值,但我们不需要把所有这些价值都免费给世界上一些最大的公司。”维基百科对于人工智能的抓取方式很熟悉。该公司的信息长久以来被Google用来提供“知识面板”,并且近年来,这个搜索巨头已经开始为这些信息付费。但是,维基百科的版主们正在讨论如何使用AI语言模型来为网站本身编写文章。他们非常清楚人工智能系统的问题,这些系统编造事实和来源,但编辑们也难以抗拒AI在速度和范围方面的明显优势。StackOverflow提供了一个类似但可能更极端的例子。像Reddit一样,它的版主也正在罢工,而像维基百科的编辑一样,他们担心机器生成内容的质量。当ChatGPT去年推出时,StackOverflow是第一个禁止其输出内容的平台。正如当时的版主所写:“主要问题在于,尽管ChatGPT产生的答案有很高的错误率,但它们通常看起来可能很好,而且这些答案很容易产生。”检查结果的真实性需要太多时间,所以版主决定直接禁止它。 然而,与Google正在发生的变化相比,上述这些网站所面临的困难都显得相形见绌。Google搜索支撑着现代网络的经济,为大部分互联网分发关注度和收入。但BingAI和ChatGPT为Google带来了巨大危机感,Google正在被迫进行改变,他们正在试验将AI生成的摘要作为搜索头条。如果这个计划成真,那么作为全球最大的搜索引擎,这个变化将是巨大的。 科技网站Tom"s Hardwar的主编AvramPiltch撰写的关于Google的AI搜索测试版的文章突显了一些问题。Piltch称Google的新系统基本上是一个“剽窃引擎”。其AI生成的摘要常常逐字逐句地从网站上复制文字,但将此内容放在源链接之上,剥夺了它们的流量。这是Google一直以来一直推动的变化,但是看一下Piltch文章中的截图,你就可以看到,平衡已经明显偏向摘录内容。Piltch写道,如果这种新的搜索模式成为常态,可能会损害整个网络。收入不足的网站可能会被挤出市场,而Google自身也会用尽人工生成的内容进行再包装。 另一个潜在问题是,如果Google继续推行其当前的AI搜索体验,它可能会摧毁我们对互联网的信任——从产品评论到菜谱博客,以及新闻媒体。 但是,如果我们顺其自然,让AI从现在开始接管网络,开始向大众提供信息,会发生什么呢?与现状有什么区别? 迄今为止的证据表明,这将降低网络的整体质量。如Piltch在他的评论中所提到的,尽管AI被吹嘘为能重新组合文本的能力,但由AI语言模型和聊天机器人产生的信息往往是错误的。更棘手的是,这些错误是很难被发现的。 但是,AI对网络的影响还不能如此简单总结。一方面,毫无疑问我们正处在AI技术的早期阶段,未来随着AI技术的发展,能否克服虚假信息的问题还有待观察。另一方面,在Reddit、StackOverflow这些例子中,还有许多不同的机制在起作用,比如利用AI威胁掩盖社区的其他问题,甚至是论坛管理者和参与者之间的权利斗争。 但在每一种情况下,AI的可扩展性都有能力改变一个平台。网络上最成功的部分网站是那些利用规模优势的网站,无论是信息整合,还是增加社交联系。而在大规模生产方面,人无法打败AI。实际上,技术斗争从互联网诞生伊始就一直存在,而目前AI引起的变化只是漫长斗争史上的最新一战。本质上,这是一场关于信息的战斗——关于谁创造它,如何访问它,以及谁得到报酬。但是,仅仅因为这场斗争是我们熟悉的,并不意味着它就无关紧要,也并不能保证接下来的网络生态一定会比我们现在拥有的更好。新的网络正在挣扎着诞生,我们现在作出的决定将塑造它的成长方式。
原文链接:
(资料图片仅供参考)
https://www.theverge.com/2023/6/26/23773914/ai-large-language-models-data-scraping-generation-remaking-web
原文标题:
《AI is killing the old web, and the new web struggles to be born》
作者:James Vincen
编译:先问大模型排版 :孙可盈
图片源于Q仔互联网冲浪所得,若有侵权,后台联系,Q仔滑跪删除~
清博旗下的产品大多开放免费试用权限,想体验我们的产品,欢迎咨询~
对咱们文章有兴趣或者有意见的朋友也可以扫码勾搭Q仔哦~
想找到志同道合,相互学习进步的朋友,欢迎大家扫码进群~
转载/品牌/媒体合作
未来派对(群)
标签: