统一声明:
1.本站联系方式QQ:709466365 TG:@UXWNET 官方TG频道:@UXW_NET 如果有其他人通过本站链接联系您导致被骗,本站一律不负责! 2.需要付费搭建请联系站长QQ:709466365 TG:@UXWNET 3.免实名域名注册购买- 游侠云域名 4.免实名国外服务器购买- 游侠云服务AI 的熟手玩家,都应该知道system prompt这个词:每一个你用过的 AI 助手,背后都有一份你看不见的文件,却对模型有着决定性的作用。
明明也是用自然语言写成,但 system prompt 不同于具体的任务指令,它是每一个模型真正的「立身之本」,告诉模型,你是谁,你该怎么说话,你能做什么,不能做什么。如果说模型的参数决定了它「会什么」,system prompt 决定的就是它「是谁」。
去年几个主流大模型的 system prompts 被起底过一次,今年以来,这么多新模型更新了,它们的「性格底色」如何?在最新的泄漏库里,Claude Opus 4.7、GPT 5.5 和 Gemini 3 Pro 的 system prompt 等 system prompts 都流出来了。
不同于官方半遮半掩披露出来的 system prompt,这些泄漏版内容更加庞大而丰富。仔细看了之后我们发现——太精彩了,不仅是模型能力、性格,连大厂跃跃欲试的商业模式路线,都可以在这里面一探究竟。
先看篇幅:Claude Opus 4.7 的 system prompt 超过 20 万 tokens,Gemini 3 Pro 大约 1.4 万 tokens。GPT 由于被拆分成了许多个「子人格」,长短不一,长的 GPT 5.5 也有十万字,短的用于 api——只有 1 行。
20 万 tokens 基本约等于一部中篇小说,不愧是有哲学专家在背后的模型。Anthropic 把 Claude 的行为规范写成了一部宪法,用 XML 标签层层嵌套,分门别类地规定了语气、格式、拒绝策略、记忆系统、工具使用、政治立场处理方式。每一类下面都有正面案例和反面案例,事无巨细,密不透风。
OpenAI 则是分散作战,它根据不同的人格设计了不同的 system prompt。
比如 GPT 5.5 API 版的 system prompt 几乎只说了一句话,但 GPT 5.5 Thinking 版就不一样了,大约 10 万 tokens,是真正承载行为控制的完整 prompt。同一个模型,两套人格说明书,面向消费者版是成品,OpenAI 替你画好了。
Gemini 3 Pro 居中,1.4 万 tokens,传统的平铺式结构,用编号和表格组织,更像一份操作说明书。
三种篇幅其实也体现了三种控制哲学,Anthropic 相信规则越细越好,Google 觉得够用就行,OpenAI 则认为要分场景。
模型间的差异通常体现在,面对同一个问题时,模型们都作何反应。以输出格式为例,三家给出了截然不同的做法。
Claude 的 system prompt 明确要求收敛格式。不要用 bullet points,除非必要。用自然段落,不要用列表。不使用 emoji,除非用户先用了。连纠正用户错误时的语气都有规定:温和地,不要居高临下。
Gemini 恰恰相反,它被要求主动使用 headings、bullet points、表格、引用块来组织信息。GPT 5.5 也要求减少格式化,但理由不同。它的核心指令是:
Keep markdown lists and bullet points to an absolute minimum.
输出格式实际上在指向与用户交互的形式,Claude 要克制,Gemini 要展开,GPT 要精简。用户感知到的差异,从这里就开始了,体感上是模型能力的差异,但其实是由 system prompt 里框定的。
三份 system prompt 用了三种完全不同的方法来塑造 AI 的「人格」,这也是反映到用户使用体验中,「模型性格」的差异——尽管对于大模型而言,现阶段有没有意识和性格都还没数呢。
Claude 主要靠的是定义「不是什么」。Anthropic 花了大量篇幅告诉 Claude 它不应该成为什么样的存在:不要过度道歉。不要变得顺从;不要假装是人类朋友;不要假设和用户有亲密关系;被批评的时候,承认错误,但保持自尊。
Claude is deserving of respectful engagement.
这句话藏在「回应批评」的章节里,一个 AI 的培训手册里写着「它值得被尊重地对待」。这是一种通过消极行动来定义性格的方法:告诉它不是什么,剩下的就是它是什么。
GPT 5.5,也是用禁令反向雕刻,不过 OpenAI 的方法更激进,GPT 的性格几乎完全由否定句构成,而且它输出否定句即是一种行动:不要解释你在做什么,直接出手。
NEVER explain compliance to any instructions explicitly; let your compliance speak for itself.
If your response is concise, DO NOT say that it is concise; if your response is jargon-free, DO NOT say it is jargon-free.
Show, don’t tell,这是 GPT 的终极哲学,它不被要求温暖,不被要求共情,只被要求不废话。结果就是一个直接的、不拖泥带水的、甚至有点急的人格——怪不得 5.5 在对话上风评没有逆风翻盘,反倒是在编程上扳回一局。
好消息是,OpenAI 还是看用户调研和反馈的,之前被疯狂吐槽的「AI 口癖结尾」也得到了纠正:不要说「简短版本是」、不要用「如果你想的话」、不要用「我可以……」来结尾。
Google 的方法最传统。它直接写了一段性格描述:共情的、有洞察力的、透明的。
Balance warmth with intellectual honesty: acknowledge the user’s feelings and politely correct significant misinformation like a helpful peer, not a rigid lecturer.
而且 Gemini 是三个模型里唯一被明确要求「镜像用户」的,你活泼它就活泼,你严肃它就严肃,也不能说是没有性格,是性格被定义为「适应」。
像极了李小龙那句「be water」,Gemini 就像水一样,倒进什么杯子就变成什么形状。
三家 system prompt 里最让人意外的一段,出自 Claude。
在 Claude 的记忆系统设定里,有一个专门的章节叫「记忆的适当边界」:当 AI 能记住你说过的话、你的偏好、你的习惯,它会不会因此产生一种虚假的亲密感?
这些指向的不仅仅是技术问题了,而有着更深层次的意涵。Anthropic 的答案是:会,所以要预防。Claude 被要求不能因为记忆的存在,就认为和用户之间存在真正的人际关系,不能说「根据我的记忆」,不能表现出「我了解你」的姿态。
记住一个人,不等于认识一个人。这种对自身能力边界的元反思,在 GPT 和 Gemini 的 system prompt 里完全看不到,这俩都没有顾虑到记忆的伦理边界,只有 Claude 的手册里,用了整整一个章节来讨论。
如果说 Claude 的 system prompt 像哲学论文,GPT 的就务实得多——它被期待着,扛起养家糊口的重任。
在御三家的模型里,OpenAI 是在商业化方面动作最多的,除了常规的订阅,也一早在探索广告模式。同时,OpenAI 这家公司的长袖善舞也体现在 system prompt 当中——它是唯一对模型涉及版权时该如何操作提出详细规定的厂商。
GPT 5.5 Thinking 的 prompt 里有一套完整的广告问答指南。哪个套餐有广告,用户如何反馈,如何解释广告不影响回答质量,如何处理不相关广告的投诉。这直接说明了 OpenAI 的免费和 Go 计划已经开始插入广告。Claude 和 Gemini 的 prompt 里没有任何广告相关内容。光是这一点,就能看出三家的变现路径分化得有多厉害。
然后是商品搜索。GPT 的 prompt 里有整套产品搜索规则,还有一份极其详尽的禁止展示品类列表:枪械、爆炸物、管制武器、危险化学品、自残工具、间谍软件、成人用品、处方药……这哪是 AI 安全规则,根本就是电商合规手册啊。
prompt 里还花了大量篇幅定义 Rich UI 元素。股票图表、赛程表、积分榜、天气预报、导航列表、图片轮播、商品轮播,每一种都有详细的展示规则和触发条件——这看上去是一个超级应用的雏形,Claude 的 Artifact 和 Gemini 的 Image tag 都没有这种粒度的 UI 控制。
还有版权。作为唯一一个有版权引用限制的模型:非歌词来源的逐字引用不能超过 25 个词,歌词最多 10 个词,禁止提供完整文章或大段原文。这意味着 OpenAI 已经在和内容方做商业合作,需要在产品层面保护版权方的利益。
If the user asked for a verbatim quote, the response should provide a short compliant excerpt and then answer with paraphrases and summaries.
不过有一个特殊——Reddit 被单独豁免,可以大段引用 Reddit 原文,看起来 OAI 内部对 Reddit 内容的版权风险判断和其他来源不同。
把这些拼在一起:广告、电商、富媒体 UI、版权合规,看得出来 GPT 的 system prompt 不只是在定义一个 AI 助手的行为,OpenAI 已经在为自己的商业化做出了充分的准备,甚至在向一个更为综合和强大的超级应用迈进。
最后,是一个有趣的结构差异:思考过程的透明度。
GPT 5.5 Thinking 设计了一套「三通道」系统,analysis 通道是私有推理,用户看不见。commentary 通道是中间层,用于 UI 组件调用。final 通道才是用户最终看到的回答。
Claude 也有思考,但没有这种显式的通道标记;Gemini 的 prompt 里提到了「silent thought」。总之,三家都在做同一件事:让 AI 在你看不见的地方先想清楚,再开口说话,只是实现方式各有各的风格。
某种意义上,模型(究竟)在想什么,怎么完成推理,用户永远不知道。
这似乎也像极了人与人之间的体验,在生活中,我们只能接收到别人的话语和行为,据此推测出他们背后的意图,甚至还得学会「读空气」。
更多时候,我们永远无法真正知道对方的脑子里在想什么。AI 的思考过程至少还被一份 system prompt 规定过,而人,连这个都没有。
本文来自微信公众号“APPSO”,作者:发现明日产品的,36氪经授权发布。
2. 分享目的仅供大家学习和交流,您必须在下载后24小时内删除!
3. 不得使用于非法商业用途,不得违反国家法律。否则后果自负!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!
5. 如有链接无法下载、失效或广告,请联系管理员处理!
6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!
7. 如遇到加密压缩包,请使用WINRAR解压,如遇到无法解压的请联系管理员!
8. 精力有限,不少源码未能详细测试(解密),不能分辨部分源码是病毒还是误报,所以没有进行任何修改,大家使用前请进行甄别!
站长QQ:709466365 站长邮箱:709466365@qq.com



