2025年末,如何看待AI。
泡沫存在吗?会破裂吗?
在这个时间点,我依然坚定认为投资泡沫是显著存在的,估值偏高也是显著存在的。
但是会破裂吗?这个问题我反而很难回答,如果说“破裂”意味着AI故事被否定,那我过去三年多所有的体验都告诉自己,99%以上概率这件事情不会发生;
但如果说,是预期与估值的明显回调,比如科技企业的CAPEX开始边际谨慎,比如Nvidia实际上真的卖不出去这么多GPU,比如数据中心的扩容速度就是跟不上,比如因为一系列延期导致回报的财务计算产生重大调整,比如AI带来的最终端的收入增速就是没那么快,再比如,最终体现出来的就是流动性问题。
以上这些“比如”,我确实认为在2026年显现出来的概率却很大,甚至超过一个sigma。
模型呢?
模型当然还会不断变得更好,但可能更大的可能性是在“人类世界”里,生成式AI带来的边际效率提升正在快速下降。本质上这是因为一个矛盾:成本与收入的不匹配。在Agent加持下,投入更多算力,可以实现更好的效果,可以应用到更多的场景,但也意味着更高的算力成本。然而,因为模型本质上是数据,生成的结果其实就是人类数字成果的“综合”模仿,它的实际质量高低其实体现的就是模型“压缩”了多少数据。
这一点在文本输出时代其实体现的并不明显,只是当前段时间nano banana pro模型开始输出令人惊艳的infographic时,才可以看的更清楚一点,原来Gemini-3真正领先的是数据:那些体现在信息图上的每一个细节,形状,颜色,logo,等等,与“真实世界”的精准对应。
讲Scaling law还在工作,自然更多的是指只要高质量的数据继续增加,模型表现就会更好。
当然,这里面的know-how其实就是“数据魔法”了:用哪些数据,如何大量生成数据,如何通过模型架构的调整“压缩”更多的数据……
算力-->数据-->生态,显然,不同的玩家,是在不同维度上竞争的。
不过,这里面还是会有两个误区,一个是关于Anthropic的Claude,一个是关于生成数据。
Claude至少还是目前最好的编程模型,看起来它并不具备数据优势,甚至在竞争中也不具备算力优势,但为什么编程能力依然是最好的。
其实,可能违反常识的是,相比浩渺无边的“世界知识”,程序数据其实是一个高度标准化的小数据。尽管Anthropic一定有自己独特的“魔法”,但对于其他主要竞争对手而言可能并不是秘密,Claude在拥有更强编程能力的同时,毕竟“引入”了更多的幻觉,而对于Gemini和GPT模型而言,则有更多的包袱不得不进行一些trade-off。
对于生成数据而言,解释起来也比较简单,生成数据主要目的是为了强化某一部分的数据能力,却无法无中生有。至少在未来可见的一段时间里,这一点都很难被改变。这意味着,人类数据的上限,就是模型的天花板所在。