AI是2025年最热门的词。但韦氏词典选出的年度词汇,不是用来夸AI的——是用来骂AI的。
这个词叫Slop。300年前指烂泥,200年前指猪食。2025年的新定义是:由AI批量生产的低质量数字内容。
同月,《经济学人》和澳大利亚麦考瑞词典选了同一个词。三本词典,同一个判断。
韦氏词典总裁Greg Barlow说:"这个词极具象征意义,它既代表变革性技术AI,又承载着人们既着迷又恼火、甚至觉得荒谬的复杂情绪。"
AI让每个人都能写,但没有让每篇文章都值得读。
四****分之三的互联网已经不是人写的了
2025年4月,SEO分析平台Ahrefs对90万个新发布的网页做了一次分析。结论是:只有25.8%的内容是纯人类撰写的。
每四篇文章里,只有一篇完全出自人手。其他三篇,要么是AI写的,要么是AI参与的。社交媒体的数字更集中:
- LinkedIn上超过54%的长英文帖子被分析为可能由AI生成。
- YouTube上,2025年7月全球增长最快的频道中,近十分之一完全由AI生成内容组成。
- Instagram用户报告,他们的Reels推荐中75%到90%是AI生成内容。
- TikTok截至2025年底标记了*超过13亿条AI生成视频。
学术界也没幸免。顶级AI会议NeurIPS的论文提交量从2020年的9467篇暴增到2025年的21575篇。Nature报道发现有研究者一年提交了超过100篇论文。一年100篇。平均不到四天一篇。
这些数字指向同一个结论:AI内容已经不是互联网的"一部分",它正在成为互联网的"大部分"。而在这些内容中,有多少是值得读的?
真实的损失
数字之外,有几个案例更直观。
cURL的27年。cURL是一个有27年历史的开源命令行工具,几乎每台联网设备上都有它。2026年1月,维护者Daniel Stenberg宣布关闭通过HackerOne运营的漏洞赏金计划。原因不是没钱,是涌入了大量AI编造的虚假漏洞报告——引用的代码片段和真实代码对不上,提到的更新日志根本不存在。Stenberg说关闭赏金计划是"减少噪音的尝试"。
一个运行了27年的安全反馈机制,被噪音淹没后关闭了。
学术界的连锁反应。arXiv要求首次投稿者必须有资深作者背书(来源:Retraction Watch 2026-01-31报道)。ICLR规定未披露大量使用语言模型的论文将被拒稿(来源:Nature报道)。IJCAI更直接——每人第一篇免费,之后每篇交100美元,钱给审稿人。
这些规则的共同逻辑:用人为门槛对抗零成本的AI内容生产。曾经学术界最大的门槛是知识。现在门槛变成了"证明这是你真正想说的话"。
Pinterest的调节器。大量用户发现首页被AI生成图片占据后,Pinterest推出了一个功能让用户手动调低AI内容比例。
一个平台需要专门开发功能来帮用户过滤AI内容——这件事本身就是答案。
为什么靠自律解决不了这个问题
上面这些现象背后有一个很简单的经济解释。知乎上有人做过测算:用国产AI模型生成一篇典型的内容农场文章,成本大约是0.00138元人民币;而这篇文章每被浏览一次产生的广告收入约为0.00145元。也就是说,只要有一个人点开,生产者就已经回本了。
当生产一篇文章的成本趋近于零,理性的经济行为就是无限量生产。内容质量不重要,点击量才重要。标题是否准确不重要,能不能被推荐算法选中才重要。
这不是道德问题。这是激励机制的问题。当系统奖励数量而非质量,数量就会爆发。指望内容生产者自律,就像指望水往高处流一样不现实。
2026年1月,一篇由Cody Kommers等六位学者联合发表的论文给Slop总结了三个特征:
- 表面专业——看起来格式正确、语法通顺、结构完整,但内容空洞。
- 不对称努力——生产者按一下按钮,消费者花十分钟判断真假。
- 可批量复制——同一模板生成无限篇相似内容。
第二个特征最值得注意。生产端的成本趋近于零,但消费端的成本——你的时间和注意力——没有丝毫下降。这种不对称才是Slop真正的代价。
2026年1月26日,Andrej Karpathy在X上发了一条帖子:
"I am bracing for 2026 as the year of the slopacolypse across all of github, substack, arxiv, X/instagram, and generally all digital media."
"我正在为2026年做准备,这将是GitHub、Substack、arXiv、社交媒体以及所有数字媒体的'Slop末日'之年。"(来源:X @karpathy/status/2015883857489522876)
Slop + apocalypse = Slopacolypse。这条帖子在Hacker News上引发了453条评论。
对Karpathy的判断更准确的理解是:AI越有用,模仿AI有用的垃圾就越多。真正的进步和冒充进步的噪音同时增长,而后者增速更快。Slopacolypse不是说AI不行了,是说分辨真伪的成本正在急剧上升。
垃圾越多,好内容反而越值钱
面对这些问题,各方的应对方向出现了一个共同趋势——而且可能和多数人预想的不一样。
2026年1月,Instagram CEO Adam Mosseri提出了一个思路:与其标记AI生成的内容,不如标记人类创作的内容。
他设想的方案是建立一条监管链。相机厂商在拍照的瞬间加密签名,相当于给每张真实照片发数字出生证明。这张证明追溯到一个真实镜头,而不是一段提示词。(来源:Android Headlines 2026-01报道)
为什么不标记AI内容,反而标记人类内容?因为AI内容已经太多了,标记少数比标记多数更现实。
搜索引擎Kagi推出了SlopStop功能:用户举报AI垃圾内容→Kagi验证→降权。同时通过Small Web计划白名单扶持真人创作者。每一条AI垃圾被标记,真正的人类内容就变得更容易被发现。
YouTube CEO Neal Mohan在2026年1月公开表示,减少Slop和检测深度伪造是YouTube今年的优先事项。
一批新平台直接把"无AI"当成核心卖点。Cara禁止AI生成作品,Spread主打人类想法,diVine宣传语写着No AI Slop。
"无AI"正在从一种立场变成一种品牌。
路透社新闻研究所在一份报告中给出了更宏观的判断:受众疲劳、怀疑情绪上升和算法调整正在改变内容消费模式。人类主导的、透明的、有辨识度的内容正在获得相对价值——不是因为平台突然偏爱它,而是因为受众开始偏爱它。
这是一个反直觉但合乎逻辑的结论:在一个充斥着"看起来还行"的内容的环境里,真正有想法、有立场、有具体细节的东西变成了稀缺品。而稀缺品的价值只会上升。
写在最后
回到Slop这个词。300年前它指烂泥。200年前指猪食。今天它指的是看起来完整、读起来通顺、但读完之后什么都记不住的内容。
韦氏词典选它做年度词汇,不是在嘲笑AI。这更像一个坐标,标记了AI内容生产力与AI内容质量之间正在拉大的裂缝。
当所有人都能写的时候,值得读的东西反而更珍贵了。而如果你读到了这里,在一个内容生产成本不到一分半钱的时代,你花了几分钟认真读完一篇文章。这种认真本身,就是最稀缺的东西。