游侠云服务,免实名免备案服务器 游侠云域名,免实名免备案域名

统一声明:

1.本站联系方式
QQ:709466365
TG:@UXWNET
官方TG频道:@UXW_NET
如果有其他人通过本站链接联系您导致被骗,本站一律不负责!

2.需要付费搭建请联系站长QQ:709466365 TG:@UXWNET
3.免实名域名注册购买- 游侠云域名
4.免实名国外服务器购买- 游侠云服务

过去几年,梁文锋几乎拒绝了所有互联网时代熟悉的剧本。

别人融资,他拒绝;别人抢入口,他开源;别人卷参数,他卷效率;别人把AI当成生意,他却一直在谈AGI。

DeepSeek因此看起来更像一家“研究机构”,而非创业公司。

直到2026年春天,事情开始变化。

GPT-5.5发布不到24小时,DeepSeek-V4预览版上线。发布后不到五天,接连三次降价,昨天,DeepSeek“识图模式”又开始灰度测试,补上了多模态这块缺失最久的拼图。

DeepSeek多模态团队研究员陈小康在X上的发帖

与此同时,那个长期拒绝腾讯、阿里和顶级VC的梁文锋,第一次主动打开了融资的大门。

一边把价格打到骨折,一边却伸手拿钱;一边叫苦算力吃紧,一边承诺还要降价,梁文锋这位把AGI挂在嘴边的人,是向商业现实“缴械投降”,还是在酝酿一场更大的风暴?

4月24日,GPT-5.5发布不到二十四小时后,DeepSeek-V4预览版悄然上线。没有发布会,就像这家公司的一贯作风:事情做完了,放出来,你们自己看。

V4-Pro发布后,最先引发讨论的不是能力,而是价格。相比前代V3.2,这一次V4-Pro的定价看起来明显更高。

很多人第一反应是DeepSeek终于开始走向“正常商业化”了。但很快,事情又出现反转。

不到一天,官网低调更新价格,直接打到2.5折。随后又一次更新:缓存命中价格永久降至发布价的十分之一。

研究员甚至在社交媒体上直接打出“AGI for Everyone”的标签,强调这是永久价格,而非促销活动。

更耐人寻味的,是官网价格页面里那行不起眼的小字:“受限于高端算力,目前Pro服务吞吐有限,预计下半年昇腾950超节点批量上市后,Pro价格会大幅下调。”

这意味着DeepSeek公开承诺未来还会继续降价,且这次价格下调绑定的,不再只是DeepSeek自己的技术优化,还有中国国产高端算力的量产节奏。

与此同时,DeepSeek还启动了成立以来的首次外部融资,目标估值从100亿美元迅速抬升至200亿美元乃至更高,腾讯、阿里相继被传洽谈入局。

降价、又融资,看起来很矛盾,但回看DeepSeek的发展历程,会发现到它的野心从不只是“做模型”。

过去两年,全球大模型行业的默认逻辑一直是模型越强,成本越高,能力越强,价格越贵。OpenAIAnthropic都建立在这套逻辑之上。

DeepSeek-V4要做的不是“卖更贵的智能”,而是不断降低“智能”的边际成本,实现AGI平权。

这种对“边际成本”的执念,从DeepSeek的前身幻方量化就已经开始了。2021年,当大多数科技公司还在讨论AI概念时,幻方已经囤积了上万张A100,自建了“萤火”算力集群。

在高度竞争的市场里,成本结构本身就是护城河,这是梁文锋在幻方时便想明白的,这套理念也被完整地继承到了DeepSeek

DeepSeek V4-Pro约5.22美元,缓存命中后进一步降至3.6美元左右。同等输入输出量下,GPT-5.5的API成本约35美元,Claude Opus 4.7约30美元。

V4-Flash更激进,成本不到竞争对手的2%。这已经不是简单的价格差,而是“量级差”了。

“超低价”背后是模型架构、推理系统与算力调度共同优化后的结果。V4-Pro支持100万token上下文,在部分长文本场景下,单token推理所需算力相比前代明显下降,KV Cache占用也大幅减少。

过去行业处理长上下文,很多时候依赖的是持续堆显存、堆带宽;DeepSeek尝试通过架构优化减少一部分无效计算与资源浪费。

当然,效率上的突破并不等于全面超越。

DeepSeek内部的真实评测显示,V4目前已成为公司员工日常使用的Agentic Coding模型,使用体验优于Sonnet 4.5,交付质量接近Opus 4.6的非思考模式,但与Opus 4.6的思考模式仍存在一定差距。

开源和低价建立了影响力,可“一分钱一分货”的道理,在顶级闭源模型身上依然成立。

某种程度上,V4真正改变的,其实不是模型能力,而是行业对“智能应该值多少钱”的认知。

极客肖恩·多纳霍在Facebook发帖称,自己把部分编程工具切换到DeepSeek之后,月账单下降了90%以上,效果却并未明显下降。

科技博主 Simon Willison 每次 DeepSeek 发布新版本,他都会用同一句提示词 生成一张鹈鹕骑自行车的 SVG。这次也一样,测试之后他称DeepSeek-V4-Pro 是“大型前沿模型中最便宜的一款”。

上:DeepSeek-V4-Flash 版 下:DeepSeek-V4-Pro 版

这几位开发者或许只是个例,但他们背后折射出的趋势值得关注:当价格差拉到“量级差”,开发者重新分配算力预算的动机也会增强。

而当越来越多应用、Agent和开发工具开始基于同一种模型生态构建时,真正形成护城河的,未必只是模型能力本身,还包括开发者习惯、调用路径以及整个生态的成本惯性。

Deepseek想用极致的性价比,成为那个被开发者“持续依赖”的选项。

2025年1月,Deepseek R1发布,引发全球震动。

Deepseek应用很快登顶苹果中国和美国地区App Store免费榜首,Nvidia单日市值蒸发约6000亿美元,美国风投家马克·安德森称之为AI领域的\”斯普特尼克时刻\”。

一个杭州的量化团队,用560万美元的训练成本,做出了对标OpenAI顶级模型的效果,并且开源了。彼时,世界对梁文锋的理解,是\”用更少的钱做更好的模型\”。

很多人后来把R1理解成“受限条件下的逆袭”,但其实并不完全准确。早在行业真正意识到大模型价值之前,幻方就已经开始大规模采购算力、建设集群。后来外界看到的“低成本奇迹”,更像一次长期积累后的集中爆发。

梁文锋真正厉害的地方,是他比大多数人更早意识到未来AI竞争的核心,不只是模型能力,还有算力效率。

但随着DeepSeek从技术黑马变成核心玩家,新的问题也开始浮现。

过去的DeepSeek,很像一个隐秘的研究组织,幻方量化在背后输血,梁文锋不缺钱,研究员埋头做模型。Deepseek在X上的签名都是“用好奇心揭开通用人工智能的奥秘,用长远的眼光回答根本问题”,学术味儿十足。

AI行业不会长期尊重“隐士”,尤其当你手里真的有“真经”的时候。

从2025年底到2026年,多位DeepSeek核心成员相继离开。

V3架构关键开发者罗福莉去了小米,第一代大语言模型核心作者王炳宣去了腾讯,R1核心研究员郭达雅被字节跳动以传闻中“近亿元的总包”带走,多模态方向核心研究员阮翀转投元戎启行。

过去,大模型公司的目标相对统一:训练更强的基础模型,到了2026年,行业开始迅速分化,Agent、多模态、端侧AI机器人自动驾驶,陆续变成新的战场。

这时候,一个研究员如果想做Agent,去字节会面对真实月活场景;想让AI理解物理世界,去自动驾驶公司显然更有吸引力。

DeepSeek太专注把模型本身做到极致,这种组织文化,能够吸引最纯粹的研究者,却很难长期承载所有方向。它最强的地方,在这一刻成为它最大的桎梏。

主流AI公司抢的是有经验的工程师,梁文锋却更青睐顶尖高校的年轻博士生,因为在他看来这些人\”渴望证明自己\”,\”可以完全不带功利地投入去做一件事\”。

初期DeepSeek的确可以用技术理想主义吸引天才,但很难长期用理想主义支付机会成本,尤其在同行已经开始形成市场估值的时候。

近两年,OpenAIAnthropic不断刷新融资数字,投后估值高达8400亿、3800亿美元,国内的智谱、MiniMax相继挂牌港交所,市值一度突破4000亿和3800亿港元。

大厂给的是有行权价、有IPO预期、有内部回购机制的期权,而不融资的DeepSeek,没有“度量衡”。在竞争白热化的AI人才市场里,没有市场化估值锚点的期权,等于一张无法兑现的期票。

梁文锋或许也是意识到了这一点,所以开放了融资。

但这依然是一个极具“梁式色彩”的融资方案。此次融资目标募集金额不低于3亿美元,计划以不低于200亿美元的估值进行。与此同时,工商信息显示,梁文锋在增资后直接持股占比由1%提升至34%,其作为实际控制人的最终受益股份仍为84.29%,表决权比例仍为100%。

他用大约3%的股权,换来了市场对这家公司的价值认证。董事会的控制权,一票未让。

对比同行,这个数字更加意味深长。OpenAI 2026年完成的最新一轮融资,募集1220亿美元,投后估值8520亿美元;Anthropic 2026年2月完成300亿美元G轮融资,投后估值3800亿美元。

3亿美元,放在今天的AI赛道里,甚至比不上同行一轮融资的零头。

梁文锋选择用这个体量融资,就是为给员工手中的期权,建立起相对清晰的估值锚点和兑现预期,稳住人才,同时让公司不被短期增长所裹挟。

R1证明了中国AI可以做出世界级模型,V4之后,梁文锋试图证明中国AI可以建立起自己的“底座标准”,哪怕这条路,很难。

有个细节,V4发布后,华为昇腾生态官方账号,专门为DeepSeek-V4做了一场直播。

芯片厂商亲自下场给一款模型站台,并不常见。它释放的信号超出产品本身:DeepSeek第一次公开地,把自己的模型路线与国产算力的量产节奏绑在一起。

过去几年,中国AI行业有个默认顺序,模型可以开源,算法可以追赶,但英伟达的生态护城河最难撼动。CUDA是英伟达二十年攒下的工具链、算子库、开发框架和开发者习惯,全球AI几乎默认运行在这套底座之上。

要脱离它,可不是“换块显卡”那么简单。尤其在万亿级参数模型上,难度会被进一步放大。参数越大,对显存带宽、通信效率、集群稳定性的要求就越高。

模型团队不仅需要针对国产芯片重写和优化核心算子,甚至还需要自研确定性算子,保证长时间训练过程中的精确可复现。

更现实的问题是在万卡集群里,硬件故障不是意外,而是必然。于是,训练框架必须同时具备完整的检测、容错与恢复能力。如果效率跑不上去,成本就只是空谈。

V4延期超过十五个月,迁移代价是原因之一。

目前V4的细粒度专家并行方案已经同时在英伟达GPU和华为昇腾NPU两个平台上完成验证,在通用推理场景中实现了1.5到1.96倍的加速。

推理层面跑通了,但开源代码主体仍基于CUDA,底层工具链尚未完全转移,原因在于昇腾950超节点尚未批量上市,现有产能撑不起V4-Pro的大规模服务。

不过DeepSeek已经把下一轮降价,公开写进了国产算力的量产时间表里。昇腾950PR单卡算力达到英伟达H20的2.87倍,是目前国内唯一支持FP4低精度推理的产品,HBM容量112GB。规格是真实的,只等工业化落地。

梁文锋当年从幻方量化的GPU集群起家,把算力当作研究的弹药。如今他让中国模型和中国芯片的命运,在商业上深度捆绑,并在所有人面前承诺,这是梁文锋在芯片封锁的现实下,做出的务实选择。

但这条路有个前提:模型能力必须始终足够硬。V4把1M上下文做成标配、对Agent能力做专项优化、推出三档推理强度,这些不是给评测榜单准备的,是给真实企业工作流准备的。只有先在真实生产场景里证明自己不可替代,Deepseek的“底座”叙事才能成立。

未来,梁文锋和Deepseek要走的路还很长,国产算力的工业化时间表能否如期兑现,模型能力能否在闭源顶级模型高速迭代的压力下保持竞争力,开发者生态能否形成足够的黏性……它们像棋盘上尚未闭合的“气眼”,每一个都关乎生死,可这些问题,现在都还没有答案。

Deepseek爆火后,被问及\”商业公司做无限投入的研究性探索是否疯狂\”时说,梁文锋曾说过一句话:\”我们终其一生所渴望的,就是找到自己,然后成为自己。\”

这句话在R1发布后的语境里读,是一个创始人的理想宣言。如今再读,分量更重了些。

AI竞争的上半场,他用技术效率、定价颠覆和算力豪赌,赢得了继续下棋的资格,成就了Deepseek的\”伟大\”。

下半场,允许梁文锋再“伟大一次”,不是因为他已经攻下了某个技术的山头,而是他正在为一场漫长的远征搭建底座。

不诱于誉,不恐于诽,率道而行,端然正己。

这是荀子的精神,也是Deepseek的信条。

本文来自微信公众号“奇点研究社”,作者:七月,编辑:孟雯,36氪经授权发布

📌 原文链接

https://36kr.com/p/3788702640763657

来源:36氪