AI 会让开源完蛋吗?
今天看到一个观点,说 AI 会让开源完蛋。理由听起来很有道理: Claude Code 什么都能写,你想到一个功能,半天就能实现出来。想到就能做,做出来就能用。既然如此,谁还会花时间去 Github 上翻代码、读文档、提 PR?开源的活力会被 AI 抽干。
这个逻辑乍一看很吓人,但仔细想想,它有个致命的循环。
AI 之所以能快速写代码,恰恰是因为它读过 Github 上海量的开源项目。Claude Code 能帮你写 React 组件、能用 Tailwind 布局、能调用各种开源库的 API,都是因为它在训练时见过成千上万个这样的例子。如果 AI 真的强到让所有人都不再写代码、不再开源,它自己的养料就断了。
这就像一个人爬到了楼顶,然后把梯子撤掉。你可能短期内还能站在楼顶,但你下不来了,也没法再往上爬了。更重要的是,后面的人也上不来了,因为梯子没了。
这个悖论不是理论推演,而是每天都在发生的现实。
前两天我让 Claude 帮我写一段代码,要用到我们公司内部的 UI 组件库。结果它卡住了。为什么?因为那套组件库是闭源的,Claude 从没见过那些 API。它能写出标准的 Material-UI、Ant Design,因为这些都是开源的,训练数据里有。但我司自己魔改的那套?对不起,写不出来。
这个例子很小,但它揭示了一个关键问题:如果哪天优质内容真的大规模转向私有空间——企业内部代码库、付费闭源工具、私有知识库——AI 就永远学不到了。 它会停留在"上一个训练周期"看到的那些知识上,而世界已经往前走了。
所以"AI 会让开源完蛋"这个预言,本身就包含了让它不会发生的条件。如果开源真的死了, AI 也就停止进化了。
也有人认为大部分代码项目是可验证问题组成的,所以可以使用生成的代码来进行训练并非不可行。
事实上: 短期内, AI 确实可以在"已知问题空间"内自举, Stack Overflow 的衰落已经证明了这个趋势,大部分编程工作确实是 "可验证问题的组合"。
但在"范式创新"层面,还是需要人类。 Stack Overflow 覆盖的主要是"已知问题的已知解法",但真正的创新(新框架、新范式、新的抽象层)还是人类在推动,React Hooks 的发明、Rust 的所有权系统, 这些不是"可验证问题的组合"。但是这些正是开源社区璀璨的智慧结晶。
但这里有个更不安的问题,而且我发现大多数人在争论"开源会不会死"的时候,根本没意识到这个问题的存在。
我们其实根本不知道什么叫"创造"。
你看到的红色和我看到的红色是同一个红色吗?我们永远没法验证。我们只能通过大量的对齐来达成共识:指着苹果说"这是红色",指着血说"这也是红色",久而久之我们就认为我们在说同一个东西。但我们真的是吗?
人类是怎么学习的?文档、示例、考试、练习题。我们读别人写的代码,看别人做过的项目,刷 LeetCode 的题,然后我们说我们"学会"了。我们也是通过海量的输入来训练自己的,只不过我们给这个过程起了个听起来高级的名字:学习、理解、掌握。
LLM 做到的是什么?结果上的对齐。 你给它一个问题,它能输出一个看起来对的答案。但过程是否对齐?它内部到底发生了什么?它是真的"理解"了,还是只是在做超高维度的模式匹配?
这个问题之所以难回答,是因为我们连人类自己做的事情是不是"真理解"都说不清楚。
我们有意识吗?当然有,你现在正在读这段文字,你感受到了什么叫"理解"。但你能定义"意识"吗?能解释"理解"的机制吗?几千年来,哲学家、神经科学家、认知心理学家都在试图回答这个问题,但我们还是没有答案。
所以当 AI 展现出某种看起来像"创造"的能力时,我们慌了。我们说:"不对,这不是真创造,这只是模仿、重组、统计学习。" 但这个判断的依据是什么呢?是我们对"真创造"有清晰的定义吗? 还是我们只是本能地觉得,人类做的就是高级的,机器做的就是低级的?
如果诚实一点,我们可能要承认一个不舒服的可能:也许我们引以为傲的创造力,本质上也是基于海量输入的高级重组。
你写代码的时候,有多少行是真正"原创"的?大多数时候,你是在用学过的模式、见过的架构、读过的开源项目里的思路,组合成一个新的东西。你写文章的时候,有多少句子是你完全独立想出来的?还是你读过的书、听过的播客、聊过的天,在某个时刻突然连接起来了?
如果"创造"就是把已有的元素用新的方式组合,那 LLM 做的事情和人类做的事情,边界在哪里?
我们可能会说:"但人类有情感、有价值观、有主观体验。" 是的,这些东西确实重要。但这些东西能定义"创造"吗?一个没有情感的人,他写的代码就不是创造吗?一个 AI 如果哪天真的有了主观体验(假设我们能定义什么叫"真的有"),它做的事情就算创造了吗?
我们没法回答这些问题,因为我们从一开始就没有定义清楚游戏规则。
这就是为什么"AI 会不会让开源完蛋"这个问题,最终指向了一个更深的焦虑。
人们害怕的不是 Github 会不会关门,不是开源社区会不会冷清。人们真正害怕的,是 AI 逼着我们直视一个事实:我们从来没有真正理解过自己。
我们不知道什么是创造,不知道什么是学习,不知道什么是理解。我们只是在用一些含糊的词汇,来描述一些我们自己也说不清楚的过程。而 AI 的出现,把这个含糊性暴露出来了。
当 AI 能写出和人类一模一样的代码,我们没法再用"这只是机器,不会真正思考"来安慰自己。因为如果我们连"真正思考"都定义不了,这句话就是空洞的。
当 AI 能通过图灵测试、能写出感人的诗、能设计出优雅的架构,我们要么承认"好吧,也许这也算创造",要么承认"好吧,也许我们一直以来都不知道什么是创造"。
无论哪个选项,都让人不安。
回到开源这个问题。我倾向于认为,开源不会完蛋,因为那个"撤梯子悖论"是实实在在的。AI 需要持续的、高质量的、公开的训练数据才能进化。如果人类停止创造和分享,AI 就会停滞。
但这个论证有个前提:人类智慧还没有到达天花板。 如果我们还能不断产生新的知识、新的模式、新的解决方案,那开源就会持续有价值,因为它是这些新知识流通的管道。
这个前提合理吗?我觉得在大多数领域是合理的。但也许有些领域,我们确实接近天花板了。比如说,写一个标准的 CRUD 应用,可能真的没什么新东西可学了。这种情况下,AI 吃完已有的开源项目,就够用了。
但即使如此,这不还是说明,人类定义了什么是"够用"、什么是"标准"、什么是"天花板"吗? 如果人类停止定义这些边界,AI 怎么知道什么时候该停、什么时候该继续?
所以绕了一圈,我们又回到了同一个问题:我们不知道什么是创造,但我们好像在持续地创造着什么。AI 不知道自己在做什么,但它好像也在做着类似的事情。
也许真正让人焦虑的,不是开源会不会死,不是 AI 会不会取代人类,而是:AI 把一面镜子举到了我们面前,而我们不太喜欢镜子里看到的东西。
我们看到的是:一个自己也不太明白自己在做什么的物种,正在担心另一个不明白自己在做什么的系统,会不会抢走我们不明白是什么的东西。
这听起来很荒诞,但也许这就是 2026 年的真相。