2025-02-09 00:28:02
loading...

深度解析:DeepSeek引领AI智能下半场的未来走向

摘要
来源:海外独角兽 自2024年第三季度以来,我们一直在探讨人工智能的下半场。尽管OpenAI的o1模型提出了强化学习(RL)的叙事,但由于种种原因未能引起广泛关注。直到DeepSeek发布R1模

来源:海外独角兽

自2024年第三季度以来,我们一直在探讨人工智能的下半场。尽管OpenAI的o1模型提出了强化学习(RL)的叙事,但由于种种原因未能引起广泛关注。直到DeepSeek发布R1模型,成功破解了RL的难题,推动整个行业进入了一个新范式,真正开启了智能的下半场。

市场上关于DeepSeek是什么、为什么的讨论已经很多。接下来更有价值的讨论是如何在AI竞赛中布局?以下是过去半个月的思考总结,希望能成为探索下半场的路线图,并定期复盘。同时列出了几个最值得关注的问题,欢迎填写问卷一起交换想法。我们将围绕下一个智能突破的关键时刻组织一场小范围讨论会:

• 下一个智能突破的关键时刻会从哪里出现?

• 如果你有充裕的探索资源,你会把资源投入到哪个方向?

• 比如下一代Transformer架构、合成数据的突破、更高效的学习方式,你会有哪些押注?

洞察一:DeepSeek超越OpenAI了吗?

毫无疑问,DeepSeek已经超越了Meta Llama,但与OpenAI、Anthropic和Google这些第一梯队玩家相比还有差距。例如,Gemini 2.0 Flash的成本比DeepSeek更低,能力也很强,且支持全模态。外界低估了以Gemini 2.0为代表的第一梯队的能力,只是由于未开源而未获得如此轰动的效果。

DeepSeek令人兴奋,但还不能称为范式级创新。更准确地说,它将之前OpenAI o1半遮半掩的范式开源,将整个生态推向了高渗透率。

从第一性原理来看,在Transformer这一代架构下超越第一梯队模型厂商是有难度的。同样路径下很难实现弯道超车。今天更期待有人能探索出下一代的智能架构和范式。

对 DeepSeek 和智能下半场的几条判断

DeepSeek用一年时间追上了OpenAI和Anthropic。

洞察二:DeepSeek开启新范式了吗?

严格意义上说,DeepSeek并没有发明新范式。

但DeepSeek的重要意义在于帮助RL和测试时计算这一新范式真正出圈。如果说OpenAI最初发布的o1是给行业出了一个谜语,那么DeepSeek就是第一个公开解谜的人。

在DeepSeek发布R1和R1-zero之前,行业内只有少部分人在实践RL和推理模型。但DeepSeek为大家指明了路线图,让行业相信这样做真的能提升智能,这对提升信心、吸引更多AI研究员转向新范式的研究有巨大帮助。

有人才进入,才有算法创新;有开源紧追才有更多计算资源投入。在DeepSeek之后,原本计划不再发新模型的OpenAI接连发出o3mini,并计划继续发布o3,还考虑开源模型。Anthropic和Google也会加快RL的研究。行业对新范式的推进因为DeepSeek而加速,中小团队也可以在不同的领域上尝试RL。

另外,推理模型的提升将进一步帮助智能体落地,AI研究员现在因此对智能体的研究和探索更有信心。因此也可以说,DeepSeek开源推理模型推进了行业向智能体的进一步探索。

所以,虽然DeepSeek没有发明新范式,但推进整个行业进入了新范式。

洞察三:Anthropic的技术路线和R1有何不同?

从Dario的访谈可以看出,Anthropic对R-1/推理模型的理解与O系列有些分歧。Dario认为基础模型与推理模型应该是一个连续光谱,而非OpenAI这种独立的模型系列。如果只做O系列会很快遇到天花板。

我一直想为什么Sonnet 3.5的编码、推理和智能体能力一下子提升这么强,但4o一直没追上?

他们在预训练基础模型阶段就做了大量RL工作,核心还是把基础模型提上去,不然只靠RL提升推理模型可能很容易把收益吃光。

洞察四:DeepSeek的轰动有必然,也有偶然

两位早期OpenAI研究员写的《为什么伟大不能被计划》形容DeepSeek也很合适。

技术角度上,DeepSeek有以下几个亮点:

• 开源:开源这一点很重要。OpenAI从GPT-3开始转为闭源公司后,第一梯队三巨头就不再公开技术细节,拱手让出了一个空白的开源生态位,但Meta和Mistral并没有接稳这个位置。DeepSeek这次堪称奇袭,在开源这块大赛道一马平川。

如果把轰动性打100分,智能提升贡献30分,开源贡献70分。之前LLaMA也开源但没有如此轰动的效果,说明LLaMa智能水平不够。

• 便宜:“Your margin is my opportunity”这句话的含金量还在上升。

• 联网+公开CoT:对于用户这两个点分别都能带来很好的用户体验。DeepSeek把两张牌同时打出,可以说是王炸,给到C端用户的体验与其他Chatbot完全不同。尤其是CoT透明,把模型思考过程公开了,透明能让用户对AI更信任,促进了破圈。不过,按理说Perplexity冲击也很大,但DeepSeek服务端不稳定,Perplexity团队快速反应上线了R-1反而承接了很大DeepSeek R-1溢出的用户。

• RL泛化:虽然RL是OpenAI o1最先提出的,但因为各种运营一直半遮半掩,渗透率并不高。DeepSeek R-1很大程度上推动了推理模型范式的进程,生态接受度大幅提升。

DeepSeek在技术上的探索投入是被这个智能成果值得更多人关注、讨论的确定性因素,但DeepSeek R1推出的时机又让这场轰动带有偶发性:

• 过去美国一直讲自己在基础技术研究上大幅领先,但DeepSeek原生于中国国内,这本身也是一个亮点。在这个过程中,又有许多美国科技大佬开始宣扬DeepSeek挑战了美国科技霸主地位的论调,DeepSeek属于被动卷入舆论战;

• DeepSeek R1发布之前,OpenAI Stargate $500B事件刚刚开始发酵,这种巨量投入和DeepSeek团队智能产出效率对比太鲜明了,很难不引发关注、讨论;

• DeepSeek让英伟达股价大跌又进一步让舆论发酵,他们肯定也想不到自己成为了2025开年美股第一只黑天鹅;

• 春节是产品的练兵场,移动互联网时代很多超级App都是在春节大爆发的,AI时代也不例外。DeepSeek R1恰好在春节前发布,大众惊喜的是它的文字创作能力,而不是训练时强调的编码和数学能力,文创更容易被大众用户有体感,也更容易走红。

洞察五:谁受伤?谁受益?

可以把这个赛场上的参与者分为三类:ToC、To Developer以及To Enterprise(to Government):

1. ToC:Chatbot肯定受冲击最大,心智和品牌关注度被DeepSeek抢走了,ChatGPT也不例外;

2. 在开发者环节的影响很有限,我们看到有用户用完之后评论r1不好用不如sonnet,Cursor官方也说Sonnet还是表现更好,用户意外高比例选择Sonnet,并没有大幅迁移;

3. 第三个维度,To Enterprise和To Government的生意在于信任和需求理解,大型组织做决策的利益考虑很复杂,不会像C端用户那么容易迁移。

再换个角度,从闭源、开源和算力的视角看这个问题:

短期大家会觉得闭源的OpenAI/Anthropic/Google更受冲击:

• 技术神秘感被开源了,AI炒作中最重要的是神秘感的溢价被打破;

• 更现实的因素,市场认为这几家闭源公司的潜在客户和市场规模被抢走了一些,GPU投入的回本周期变长;

• 作为领头羊的OpenAI在其中属于最“吃亏”的那个,之前想捂着技术不开源,半遮半掩,希望多赚技术溢价的美梦无法实现了。

但中长期看,GPU资源充裕的公司还是受益的,一方面是第二梯队的Meta可以快速跟进新方法,资本支出更加高效,Meta可能是很大受益者,另一方面是智能提升还需要更多探索,DeepSeek开源把大家水平拉齐,进入全新探索又需要10倍甚至更大量级的GPU投入。

从第一性原理来想,对于AI智能产业来说,无论是发展智能还是应用智能,从物理本质上就必然要消耗海量算力,这是基础定律决定的,不是技术优化能完全规避的。

所以,无论是探索智能,还是应用智能,即便短期有质疑,中长期的算力需求也会爆炸,这也解释了为什么马斯克从第一性原理出发,xAI坚持扩建集群,xAI和Stargate背后的深层逻辑也许是一样的。Amazon等云厂商都宣布了要增加Capex指引。

我们就假设全球的AI研究人员水平和认知都拉齐,有更多GPU就可以做更多实验探索?最后可能还是回到计算的竞争。

DeepSeek光脚不怕穿鞋,没有商业化诉求,专注AGI智能技术探索,开源这个动作对推动AGI进程推动意义很大,加剧了竞争,推动了开放性,颇有鲶鱼效应。

洞察六:蒸馏能超越SOTA吗?

有个细节点不确定,如果DeepSeek从预训练阶段就大量使用蒸馏的CoT数据,那做到今天效果不算惊艳,还是在第一梯队巨头的肩膀上获得的基础智能,然后再开源出来;但如果预训练阶段没有大量用蒸馏数据,DeepSeek从零开始预训练做到今天的效果,那就堪称惊艳了。

另外,蒸馏能否在基础模型上超越SOTA,应该是不太可能的。但DeepSeek R-1非常强,猜测是奖励模型做得非常好,如果R-1 Zero这条路径靠谱,是有机会超越SOTA的。

洞察七:No Moat!

Google之前对OpenAI的一个评价:“No Moat!”这句话放在这里也很应景。

对 DeepSeek 和智能下半场的几条判断

DeepSeek这一波Chatbot用户又出现了大量迁移现象,给了市场一个重要启发:智能技术进步非常陡峭,阶段性产品很难形成绝对壁垒。

不管是ChatGPT/Sonnet/Perplexity刚形成了心智和口碑,还是Cursor、Windsurf这类开发者工具,一旦有了更智能的产品,用户对“上一代”智能的产品毫无忠诚度。今天不管是模型层还是应用层都很难构建护城河。

DeepSeek这次也验证了一件事:模型即应用,DeepSeek在产品形式上没有任何创新,核心就是智能+开源。我也不禁思考:在AI时代,任何产品和商业模式的创新都比不上智能的创新吗?

洞察八:DeepSeek应该承接这波Chatbot流量并做大吗?

从Chatbot爆火到今天,通过DeepSeek团队的反应可以明显感觉出来,DeepSeek还没想好怎么用这波流量。

而要不要接住、并积极运营这批流量这个问题的本质是,伟大的商业公司和伟大的研究实验室能否共存在一个组织?

这件事非常考验精力和资源分配、组织能力和战略选择。如果是字节、Meta这类大公司,他们的第一反应应该都要接下来,也有一定组织基础可以接下来,但DeepSeek作为一个研究实验室组织,承接这波巨量流量的压力必然很大。

但同时也要想这一波Chatbot会是阶段性流量吗?Chatbot是不是在未来智能探索的主线上?似乎感觉每个智能阶段都有对应的产品形态,而Chatbot只是解锁的其中一个早期形态。

对于DeepSeek来说,从未来3-5年视角看,如果今天不去承接Chatbot流量,会不会是一种错过?万一哪天跑出规模效应?如果AGI最终实现了,又会是什么载体来承接?

洞察九:下一个智能突破的关键时刻从哪里来?

一方面,第一梯队的下一代模型很关键,但今天我们又处在Transformer的极限边界上,第一梯队能否拿出代际提升的模型也不确定。OpenAI、Anthropic和Google作为回应发出的好30-50%的模型可能都不够挽回局势,因为他们资源多了10-30倍。

另一方面,智能体落地比较关键,因为智能体需要做长距离多步骤推理,如果模型好5-10%,领先的效果就会被放大很多倍。所以OpenAI、Anthropic和Google一方面要做智能体产品落地,全栈集成模型+智能体产品,就像Windows+Office,二是也要展示出更强大的模型,比如O3完整版、Sonnet 4/3.5 opus为代表的下一代模型。

在技术不确定性下,最宝贵的是天才AI研究员,任何想要探索AGI的组织都要投入资源更激进地押注下一个范式,尤其是在今天预训练阶段已经被拉齐的背景下,要有好的人才+充裕资源,探索下一个智能涌现的关键时刻。

洞察十:DeepSeek这一波让我对中国AI人才更有信心,非常鼓舞

最后,希望技术无国界。

声明:文章不代表币圈网观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险自担!转载请注明出处!侵权必究!
回顶部