统一声明:
1.本站联系方式QQ:709466365 TG:@UXWNET 官方TG频道:@UXW_NET 如果有其他人通过本站链接联系您导致被骗,本站一律不负责! 2.需要付费搭建请联系站长QQ:709466365 TG:@UXWNET 3.免实名域名注册购买- 游侠云域名 4.免实名国外服务器购买- 游侠云服务过去几年,梁文锋几乎拒绝了所有互联网时代熟悉的剧本。
别人融资,他拒绝;别人抢入口,他开源;别人卷参数,他卷效率;别人把AI当成生意,他却一直在谈AGI。
DeepSeek因此看起来更像一家“研究机构”,而非创业公司。
直到2026年春天,事情开始变化。
GPT-5.5发布不到24小时,DeepSeek-V4预览版上线。发布后不到五天,接连三次降价,昨天,DeepSeek“识图模式”又开始灰度测试,补上了多模态这块缺失最久的拼图。
DeepSeek多模态团队研究员陈小康在X上的发帖
与此同时,那个长期拒绝腾讯、阿里和顶级VC的梁文锋,第一次主动打开了融资的大门。
一边把价格打到骨折,一边却伸手拿钱;一边叫苦算力吃紧,一边承诺还要降价,梁文锋这位把AGI挂在嘴边的人,是向商业现实“缴械投降”,还是在酝酿一场更大的风暴?
4月24日,GPT-5.5发布不到二十四小时后,DeepSeek-V4预览版悄然上线。没有发布会,就像这家公司的一贯作风:事情做完了,放出来,你们自己看。
V4-Pro发布后,最先引发讨论的不是能力,而是价格。相比前代V3.2,这一次V4-Pro的定价看起来明显更高。
很多人第一反应是DeepSeek终于开始走向“正常商业化”了。但很快,事情又出现反转。
不到一天,官网低调更新价格,直接打到2.5折。随后又一次更新:缓存命中价格永久降至发布价的十分之一。
研究员甚至在社交媒体上直接打出“AGI for Everyone”的标签,强调这是永久价格,而非促销活动。
更耐人寻味的,是官网价格页面里那行不起眼的小字:“受限于高端算力,目前Pro服务吞吐有限,预计下半年昇腾950超节点批量上市后,Pro价格会大幅下调。”
这意味着DeepSeek公开承诺未来还会继续降价,且这次价格下调绑定的,不再只是DeepSeek自己的技术优化,还有中国国产高端算力的量产节奏。
与此同时,DeepSeek还启动了成立以来的首次外部融资,目标估值从100亿美元迅速抬升至200亿美元乃至更高,腾讯、阿里相继被传洽谈入局。
降价、又融资,看起来很矛盾,但回看DeepSeek的发展历程,会发现到它的野心从不只是“做模型”。
过去两年,全球大模型行业的默认逻辑一直是模型越强,成本越高,能力越强,价格越贵。OpenAI、Anthropic都建立在这套逻辑之上。
但DeepSeek-V4要做的不是“卖更贵的智能”,而是不断降低“智能”的边际成本,实现AGI平权。
这种对“边际成本”的执念,从DeepSeek的前身幻方量化就已经开始了。2021年,当大多数科技公司还在讨论AI概念时,幻方已经囤积了上万张A100,自建了“萤火”算力集群。
在高度竞争的市场里,成本结构本身就是护城河,这是梁文锋在幻方时便想明白的,这套理念也被完整地继承到了DeepSeek。
DeepSeek V4-Pro约5.22美元,缓存命中后进一步降至3.6美元左右。同等输入输出量下,GPT-5.5的API成本约35美元,Claude Opus 4.7约30美元。
V4-Flash更激进,成本不到竞争对手的2%。这已经不是简单的价格差,而是“量级差”了。
“超低价”背后是模型架构、推理系统与算力调度共同优化后的结果。V4-Pro支持100万token上下文,在部分长文本场景下,单token推理所需算力相比前代明显下降,KV Cache占用也大幅减少。
过去行业处理长上下文,很多时候依赖的是持续堆显存、堆带宽;DeepSeek尝试通过架构优化减少一部分无效计算与资源浪费。
当然,效率上的突破并不等于全面超越。
DeepSeek内部的真实评测显示,V4目前已成为公司员工日常使用的Agentic Coding模型,使用体验优于Sonnet 4.5,交付质量接近Opus 4.6的非思考模式,但与Opus 4.6的思考模式仍存在一定差距。
开源和低价建立了影响力,可“一分钱一分货”的道理,在顶级闭源模型身上依然成立。
某种程度上,V4真正改变的,其实不是模型能力,而是行业对“智能应该值多少钱”的认知。
极客肖恩·多纳霍在Facebook发帖称,自己把部分编程工具切换到DeepSeek之后,月账单下降了90%以上,效果却并未明显下降。
科技博主 Simon Willison 每次 DeepSeek 发布新版本,他都会用同一句提示词 生成一张鹈鹕骑自行车的 SVG。这次也一样,测试之后他称DeepSeek-V4-Pro 是“大型前沿模型中最便宜的一款”。
上:DeepSeek-V4-Flash 版 下:DeepSeek-V4-Pro 版
这几位开发者或许只是个例,但他们背后折射出的趋势值得关注:当价格差拉到“量级差”,开发者重新分配算力预算的动机也会增强。
而当越来越多应用、Agent和开发工具开始基于同一种模型生态构建时,真正形成护城河的,未必只是模型能力本身,还包括开发者习惯、调用路径以及整个生态的成本惯性。
Deepseek想用极致的性价比,成为那个被开发者“持续依赖”的选项。
2025年1月,Deepseek R1发布,引发全球震动。
Deepseek应用很快登顶苹果中国和美国地区App Store免费榜首,Nvidia单日市值蒸发约6000亿美元,美国风投家马克·安德森称之为AI领域的\”斯普特尼克时刻\”。
一个杭州的量化团队,用560万美元的训练成本,做出了对标OpenAI顶级模型的效果,并且开源了。彼时,世界对梁文锋的理解,是\”用更少的钱做更好的模型\”。
很多人后来把R1理解成“受限条件下的逆袭”,但其实并不完全准确。早在行业真正意识到大模型价值之前,幻方就已经开始大规模采购算力、建设集群。后来外界看到的“低成本奇迹”,更像一次长期积累后的集中爆发。
梁文锋真正厉害的地方,是他比大多数人更早意识到未来AI竞争的核心,不只是模型能力,还有算力效率。
但随着DeepSeek从技术黑马变成核心玩家,新的问题也开始浮现。
过去的DeepSeek,很像一个隐秘的研究组织,幻方量化在背后输血,梁文锋不缺钱,研究员埋头做模型。Deepseek在X上的签名都是“用好奇心揭开通用人工智能的奥秘,用长远的眼光回答根本问题”,学术味儿十足。
但AI行业不会长期尊重“隐士”,尤其当你手里真的有“真经”的时候。
从2025年底到2026年,多位DeepSeek核心成员相继离开。
V3架构关键开发者罗福莉去了小米,第一代大语言模型核心作者王炳宣去了腾讯,R1核心研究员郭达雅被字节跳动以传闻中“近亿元的总包”带走,多模态方向核心研究员阮翀转投元戎启行。
过去,大模型公司的目标相对统一:训练更强的基础模型,到了2026年,行业开始迅速分化,Agent、多模态、端侧AI、机器人、自动驾驶,陆续变成新的战场。
这时候,一个研究员如果想做Agent,去字节会面对真实月活场景;想让AI理解物理世界,去自动驾驶公司显然更有吸引力。
DeepSeek太专注把模型本身做到极致,这种组织文化,能够吸引最纯粹的研究者,却很难长期承载所有方向。它最强的地方,在这一刻成为它最大的桎梏。
主流AI公司抢的是有经验的工程师,梁文锋却更青睐顶尖高校的年轻博士生,因为在他看来这些人\”渴望证明自己\”,\”可以完全不带功利地投入去做一件事\”。
初期DeepSeek的确可以用技术理想主义吸引天才,但很难长期用理想主义支付机会成本,尤其在同行已经开始形成市场估值的时候。
近两年,OpenAI、Anthropic不断刷新融资数字,投后估值高达8400亿、3800亿美元,国内的智谱、MiniMax相继挂牌港交所,市值一度突破4000亿和3800亿港元。
大厂给的是有行权价、有IPO预期、有内部回购机制的期权,而不融资的DeepSeek,没有“度量衡”。在竞争白热化的AI人才市场里,没有市场化估值锚点的期权,等于一张无法兑现的期票。
梁文锋或许也是意识到了这一点,所以开放了融资。
但这依然是一个极具“梁式色彩”的融资方案。此次融资目标募集金额不低于3亿美元,计划以不低于200亿美元的估值进行。与此同时,工商信息显示,梁文锋在增资后直接持股占比由1%提升至34%,其作为实际控制人的最终受益股份仍为84.29%,表决权比例仍为100%。
他用大约3%的股权,换来了市场对这家公司的价值认证。董事会的控制权,一票未让。
对比同行,这个数字更加意味深长。OpenAI 2026年完成的最新一轮融资,募集1220亿美元,投后估值8520亿美元;Anthropic 2026年2月完成300亿美元G轮融资,投后估值3800亿美元。
3亿美元,放在今天的AI赛道里,甚至比不上同行一轮融资的零头。
梁文锋选择用这个体量融资,就是为给员工手中的期权,建立起相对清晰的估值锚点和兑现预期,稳住人才,同时让公司不被短期增长所裹挟。
R1证明了中国AI可以做出世界级模型,V4之后,梁文锋试图证明中国AI可以建立起自己的“底座标准”,哪怕这条路,很难。
有个细节,V4发布后,华为昇腾生态官方账号,专门为DeepSeek-V4做了一场直播。
芯片厂商亲自下场给一款模型站台,并不常见。它释放的信号超出产品本身:DeepSeek第一次公开地,把自己的模型路线与国产算力的量产节奏绑在一起。
过去几年,中国AI行业有个默认顺序,模型可以开源,算法可以追赶,但英伟达的生态护城河最难撼动。CUDA是英伟达二十年攒下的工具链、算子库、开发框架和开发者习惯,全球AI几乎默认运行在这套底座之上。
要脱离它,可不是“换块显卡”那么简单。尤其在万亿级参数模型上,难度会被进一步放大。参数越大,对显存带宽、通信效率、集群稳定性的要求就越高。
模型团队不仅需要针对国产芯片重写和优化核心算子,甚至还需要自研确定性算子,保证长时间训练过程中的精确可复现。
更现实的问题是在万卡集群里,硬件故障不是意外,而是必然。于是,训练框架必须同时具备完整的检测、容错与恢复能力。如果效率跑不上去,成本就只是空谈。
V4延期超过十五个月,迁移代价是原因之一。
目前V4的细粒度专家并行方案已经同时在英伟达GPU和华为昇腾NPU两个平台上完成验证,在通用推理场景中实现了1.5到1.96倍的加速。
推理层面跑通了,但开源代码主体仍基于CUDA,底层工具链尚未完全转移,原因在于昇腾950超节点尚未批量上市,现有产能撑不起V4-Pro的大规模服务。
不过DeepSeek已经把下一轮降价,公开写进了国产算力的量产时间表里。昇腾950PR单卡算力达到英伟达H20的2.87倍,是目前国内唯一支持FP4低精度推理的产品,HBM容量112GB。规格是真实的,只等工业化落地。
梁文锋当年从幻方量化的GPU集群起家,把算力当作研究的弹药。如今他让中国模型和中国芯片的命运,在商业上深度捆绑,并在所有人面前承诺,这是梁文锋在芯片封锁的现实下,做出的务实选择。
但这条路有个前提:模型能力必须始终足够硬。V4把1M上下文做成标配、对Agent能力做专项优化、推出三档推理强度,这些不是给评测榜单准备的,是给真实企业工作流准备的。只有先在真实生产场景里证明自己不可替代,Deepseek的“底座”叙事才能成立。
未来,梁文锋和Deepseek要走的路还很长,国产算力的工业化时间表能否如期兑现,模型能力能否在闭源顶级模型高速迭代的压力下保持竞争力,开发者生态能否形成足够的黏性……它们像棋盘上尚未闭合的“气眼”,每一个都关乎生死,可这些问题,现在都还没有答案。
Deepseek爆火后,被问及\”商业公司做无限投入的研究性探索是否疯狂\”时说,梁文锋曾说过一句话:\”我们终其一生所渴望的,就是找到自己,然后成为自己。\”
这句话在R1发布后的语境里读,是一个创始人的理想宣言。如今再读,分量更重了些。
AI竞争的上半场,他用技术效率、定价颠覆和算力豪赌,赢得了继续下棋的资格,成就了Deepseek的\”伟大\”。
下半场,允许梁文锋再“伟大一次”,不是因为他已经攻下了某个技术的山头,而是他正在为一场漫长的远征搭建底座。
不诱于誉,不恐于诽,率道而行,端然正己。
这是荀子的精神,也是Deepseek的信条。
本文来自微信公众号“奇点研究社”,作者:七月,编辑:孟雯,36氪经授权发布。
2. 分享目的仅供大家学习和交流,您必须在下载后24小时内删除!
3. 不得使用于非法商业用途,不得违反国家法律。否则后果自负!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!
5. 如有链接无法下载、失效或广告,请联系管理员处理!
6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!
7. 如遇到加密压缩包,请使用WINRAR解压,如遇到无法解压的请联系管理员!
8. 精力有限,不少源码未能详细测试(解密),不能分辨部分源码是病毒还是误报,所以没有进行任何修改,大家使用前请进行甄别!
站长QQ:709466365 站长邮箱:709466365@qq.com



