阅读视图

发现新文章,点击刷新页面。
🔲 ☆

Claude 封号限流砍权益,OpenAI 趁机用 Codex 稳稳接住你

天下苦 A 社久矣。

这是前段时间 Anthropic 持续推出各种功能,但是一边又不断加强使用限制,读者在评论区最普遍的反应。

本身就是御三家(OpenAI、Google、Anthropic)里对使用限制最严格的一个,另一边又加码推出身份验证,实名制才能使用。今天凌晨,再把 Pro(20 美元/月)用户的 Claude Code 使用权给砍了。

Anthropic 的增长负责人出来回应,提到他们正在对约 2% 的新专业用户注册者进行小规模测试,现有 Pro 和 Max 用户不受影响;并表示目前的订阅计划无法应对用户大量的 Token 消耗,他们在研究新的付费方案。

▲来源:https://x.com/TheAmolAvasare/status/2046724659039932830

OpenAI 这边也立马回应了 Claude Code 踢掉 Pro 会员的争议,一位 Codex 负责人 Rohan Varma 直接怼脸和 Claude Code 竞争,连发文格式都和 Claude Code 一样。

▲来源:https://x.com/rohanvarma/status/2046769635350241292

Anthropic 为 2% 的用户测试更贵的计划,而 Codex 给 100% 用户测试,让免费和付费套餐都能使用 Codex。还特别调皮的加了一句「Claude Code 用户不受影响。」

▲Claude Code 用户 PAY(付钱),Codex 用户 PLAY(玩)

另一位 Codex 负责人 Tibo,也在 X 发文说 Codex 将继续提供免费版和 PLUS 版(20 美元/月),还提到 OpenAI 拥有足够的算力和厉害的模型来支持 Codex 的运作

奥特曼也转发了这条推文,表示 「我们希望你们可以有大量的 AI。

▲来源:https://x.com/sama/status/2046752492093165708

Codex 口碑在社交媒体上一直不算太差,尤其是前段时间 OpenAI「大撒币」,先是说为了让每个人都能体验到 Codex 推出的相关插件,给所有订阅计划都重置了使用限制

4 月初,Codex 发现用户达到使用限制的频率增加,且未找到背后的原因,干脆就重置了所有用户的额度限制。几天前,为了庆祝 Codex 周年庆和新功能上线,又一次重置了所有套餐的用量限制

今天,Codex 负责人和奥特曼再发推文,表示不到两周 Codex 增加了 100 万新用户,为了庆祝这件事,Codex 的速率限制又又又重置了。

▲来源:https://x.com/sama/status/2046604989527912590

早在上周 Anthropic 发布 Opus 4.7 的那天,Codex 就更新了一大堆重要功能,Computer Use、内置浏览器、持久记忆,以及 90 多项插件。

这些更新几乎是直接对标 Claude Cowork 的功能,把 Codex 从一个听着就像是给开发者用的工具,重新变成了一个适用于电脑所有场景的效率助手工具。

昨天,Codex 在此前推出记忆功能的基础上,又上线了一项名叫「Chronicle」的研究预览功能,让 AI 能读我们的屏幕,把我们最近做过的事整理成记忆。

Codex 不再只依赖聊天记录来理解上下文,结合它读取的近期屏幕内容,我们给它发送「这个」、「那个」,Codex 能知道我们到底指的是什么。

今天刚刚发布的 GPT Image 2 也已经集成到了 Codex 里。我们可以在 Codex 生成并迭代图像,在一套工作流里,从产品原型、前端设计,到视觉效果图和游戏开发等任务,使用 GPT Image 2 快速生成视觉元素。

如果你的 Claude 账号总是被封,用不了官方的 Claude Cowork、Claude Code 桌面版,又或者是那 2% 的新用户,开通了 20 美元/月的 Pro 会员也用不了 Claude Code,不妨来试试 OpenAI 出品的 Codex。

从代码工具到全能助手

Codex 最近这段时间的更新,最重要的莫过于上周发布的 Computer Use。这项能力并不算新鲜,之前是模型有 Computer Use 的能力,现在是需要工具也要有配套的支持,才能发挥模型能力。

它本质上就是 Agent 工具可以像人类操作电脑一样,通过视觉识别、点击和输入,自主操控电脑上的各类应用程序。

之前的 Codex 操作电脑上的软件,是通过一些命令来执行不同的应用任务,整体更像是我们喊「Siri,明天的天气怎么样」,做这些比较简单的任务。

有了 Computer Use 的能力之后,不仅支持一些调用 API 或者终端命令的工具,还能真的能帮我们完成一些电脑上的实际操作,尤其适合前端调试、应用测试、操作没有开放 API 的软件。

而且支持多个智能体并行在 Mac 上工作,不会影响我们正常使用其他应用。

需要注意的是,Computer Use 的能力只支持 macOS 15 以上的版本,我们的电脑(macOS 14.6.1)在测试 Codex 时,会自动弹出一个 SkyComputerUseClient 的问题报告。

另外,现在 Codex 支持内置浏览器,能更好地处理 Web 场景。我们在 Codex 里生成的网页,可以直接在网页上标注,给 Codex 更精准的操作指令,对一些前端、应用和游戏开发的快速迭代非常有用。

▲从 Coding、设计、生活方式、生产力到研究,Codex 现在有丰富的插件系统来处理各项任务

这次的更新还新增了 90 多个插件和更丰富的工具集成,让 Codex 能接入更多工具、获取更多上下文,并跨平台执行操作,提到的热门插件包括 Atlassian Rovo(JIRA)、Microsoft 套件、Neon by Databricks、Remotion、Render、Superpowers 等。

在 Codex 应用里,我们只需要输入斜线就能快速进入一些关于 Codex 的配置,输入 $,则可以选择不同的 Skills,包括我们安装在本地的各种 Skills。

同时,在自动化任务上,Codex 的 Automation 功能升级后,可以复用之前的对话线程,保留已有上下文。新的自动化还支持 Codex 自主规划后续工作、自动在未来某个时间继续执行任务,以及支持持续数天甚至数周的长期任务。

官方提到这项更新主要用于代码的提交合并、跟进日常工作生活的待办事项,以及跨越不同平台和工具的信息追踪等任务。

还有一些对于桌面应用交互的小更新,像是增加了多标签页的终端窗口,侧边栏可以直接打开文件,预览 PDF、表格、PPT 等文档。

新的摘要面板,也可以持续跟踪当前执行任务的计划和进度、参考信息来源,和输出结果等。这些应用上的增强,也让 Codex 在整体上更像是一个统一的工作台,而不再是单一的对话窗口。

用定时截屏的方式来维护 Agent 记忆

个性化的记忆功能向来就是 AI 的一大难题,虽然 AI 博古通今能记住所有的知识,但是对于每个用户的私人记忆处理,工作记忆等,AI 需要用不会占据大量的 Token,同时又能记清楚的方式来处理日复一日的对话。

尤其是现在到了 Agent 这类巨消耗 Token 的任务上,每个用户每天产生的上下文,如果 Agent 要全部记住,估计再来一百万 Token 上下文也难顶住。

上周 OpenAI 就已经为 Codex 带来了记忆功能,它可以记住我们的个人偏好、之前做过的修正,以及一些不容易获取但很重要的信息。

而为了获取更多的记忆,更快地处理我们的工作流。Codex 这次推出的 Chronicle 功能,说白了就是看我们的屏幕,记住我们的工作,再把这些记忆喂给 AI。

具体来说,在 Codex 设置>个性化里面,开了 Chronicle 功能之后,会自动执行这些操作:屏幕上下文捕获 → 本地临时截图 → 后台代理分析 → 临时 Codex 会话总结 → 生成本地 Markdown 记忆 → 后续会话中作为上下文使用。

Codex 获取了屏幕录制和无障碍权限之后,Chronicle 会在后台运行一个沙箱 Agent,这些 Agents 使用默认模型 GPT-5.4-mini,基于捕获到的屏幕图像,周期性地启动一个临时的 Codex 会话,把最近的屏幕上下文整理出记忆。

屏幕截图只会临时保存在本地,Codex 提到运行期间,超过 6 个小时截图会被自动删除。

▲GPT Image 2 生成的信息图

以后我们和 Codex 对话,它会自动检索这些记忆文件,作为上下文来使用,减少我们重复描述背景的需要。

OpenAI 官方也给了多个案例,像是如果不开启 Chronicle,Codex 不知道我们说的「这里会失败」,是指的什么。

以及针对一些个人任务中出现的人名、项目名等,在通用知识外的内容,Codex 也会根据 Chronicle 获取的信息,自动补充上下文。

能够捕获屏幕图像,也意味着使用 Codex 处理任务的全流程,Chronicle 都能记住。包括我们的工作流,常用的工具。像下面的例子里,使用了 Chronicle 的 Codex 会知道这份宣传材料使用何种格式,以及何种工具,是 Google 文档还是 Markdown 文档。

不过这项功能也面临着一些争议,例如视觉识别的方法会消耗大量的 token,更严重的是这些截图可能包含我们屏幕上可见的敏感信息。

虽然 OpenAI 说所有保存的记忆都会存放在本地的 markdwon 文档里,用户可以随时查看,Codex 根据这些截屏获取到了哪些信息。但是他们也提醒用户,当 Chronicle 截屏到一些有风险的网站时,网站可能通过提示词注入的方式,在屏幕上隐藏一些恶意指令,让 Codex 执行。

Chronicle 这项功能目前仅向 ChatGPT Pro(200 美元/月)用户开放,支持 macOS 版本的 Codex 应用,作为研究预览版推出。待 Chronicle 正式上线之后,相信 Codex 会把它开放给更多用户使用。

手机遥控、电子宠物、「Hermes Agent」都有机会上线

这段时间,Codex 被网友们称作是一款正在用力追赶 Claude 的产品。虽然一方面是在说 OpenAI 没有主见,随大流。但另一方面,能看到好的产品之间展开你追我赶的竞争,对我们用户来说未尝不是一件好事。

Codex 开发者在 X 上问大家对 Codex 有何意见,网友们非常积极的表示,要加上手机控制功能,还有人说 Codex 也应该从 ChatGPT App 里面进入。而这些都是 Claude 目前已经做到的功能。

也有网友在下面反馈 Codex 存在的各种 Bug,像是内存泄露、会话只能存档不能删除等问题。

最新的 Codex 更新爆料里还提到,Codex 也打算做一个小小电子宠物,放在 Codex 桌面上,来提示用户目前会话的各种状态。

这个电子宠物共有 8 种预设形象,用户还可以创建使用自己的虚拟形象。

▲来源:https://x.com/testingcatalog/status/2046366630528143827

另一个爆料则提到 OpenAI 正在为 ChatGPT 开发智能体(代号 Hermes),其中包括智能体构建器、模板、日程安排、在 Slack 中使用智能体的选项、添加应用程序、技能、文件、内存、指令等功能。

▲来源:https://x.com/btibor91/status/2046545878538961304/

眼下的 Codex 是一个活跃开发的产品,OpenAI 必然不会把本地 Agent 产品这一块的市场拱手让给 Claude。

别说 OpenAI 这位 AI 界的老大哥,前几天,Gemini 也不声不响地发布了桌面版应用,但是被一众网友评价「拉爆了」。

只能鼓励一下 OpenAI 和 Gemini,赶快结束 Claude 在本地 Agent 助手和代码这块的领先地位。

天下苦 A 社久矣。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

🔲 ⭐

AI大厂高薪招文科生?真相不是翻身,而是抢叙事权!

硅谷玻璃办公楼前的十字路口,一侧是抱着纸箱离开的程序员,另一侧是拿着采访本与笔记本电脑走进 AI 公司大门的年轻新闻从业者,楼宇屏幕闪着 AI 字样,羊皮纸,钢笔彩色手绘的统一风格。

硅谷 AI 大厂开始招聘文科生,特别是新闻专业的学生,这到底是怎么回事?一边裁程序员,一边招文科生,是不是搞反了?

这两年最魔幻的一幕出现了:一边是程序员在大裁员,找不到工作,新的程序员,特别是刚毕业的程序员,更是找不到工作;另一边,媒体突然开始热炒,说硅谷的 AI 大厂正在高薪招聘文科生。

所谓高薪,是六位数年薪,几十万美金,甚至有一些职位好像飙到了 70 多万美金一年。这些职位要求的是会写、会讲、会做内容、会做传播的人,特别还提到了新闻专业。

这个反差确实很大。程序员折腾了半天把 AI 做出来,结果像是把自己的命革了,然后把职位让给文科生。这种报道天然就具备传播性。问题是,这到底是真的趋势,还是媒体制造出来的错觉?

先说结论:有招聘,但不是“文科生大翻身”

一张铺在木桌上的招聘版图,OpenAI、谷歌、微软等公司职位卡片零星散落,旁边放着放大镜和记号笔,少量高薪岗位被圈出,显得稀缺而醒目,羊皮纸,钢笔彩色手绘的统一风格。

先说结论。美国硅谷 AI 大厂,确实存在对叙事、传播、内容设计、政策理解这类岗位的招聘,这是真的。

第二,这类岗位的数量非常非常少。大家要知道,在大厂里,通常一种扩招是为了开展一块新业务,会直接招整个团队;另一种招聘,则是补一些非常资深的总监、专家类岗位。

这次所谓硅谷招聘文科生,实际需要的更像是后者,也就是总监、专家类,或者 senior 级别的岗位。这些岗位绝大部分都不是给新人准备的,而是中高级岗位,职位要求上写得很清楚。

第三,这不是文科生大翻身,更不是程序员不行了、文科生接班了。

第四,它更像是 AI 大厂发现,技术已经不只是技术本身了。谁能够解释清楚技术、包装技术、定义技术、决定技术怎么说话,谁就能掌控一部分新时代的话语权。这更像是一场叙事权的争夺

所以,这不是一次就业逆转的故事,而是一个更大的叙事:技术公司开始争夺叙事权。谁有权利来讲这个故事,这才是大家现在在抢的。

这波“文科生翻身”叙事是怎么炒起来的?

新闻传播链条的长桌场景,一端是《华尔街日报》《商业内幕》《财富》样式的报纸与网页标题,另一端是社交媒体界面和 LinkedIn 动态不断放大同一个话题,像滚雪球一样扩散,羊皮纸,钢笔彩色手绘的统一风格。

那么,这波“文科生翻身”的叙事是怎么炒起来的?如果回头去看这波舆论的传播线,会发现它不是很多媒体同时独立报道出来的,而是一个非常典型的放大过程。

最早,是《华尔街日报》在去年 12 月份发了一篇文章,开始讨论企业为什么迫切需要会讲故事的人。但当时这个话题并没有彻底炸开。

真正让这个话题变成风潮的,是 2026 年 2 月《商业内幕》Business Insider 的一篇文章,标题非常抓眼球,大意是:科技行业最热门的工作之一,竟然是写字。随后,《财富》杂志继续跟进,把高薪数字抬得更高。

再往后,LinkedIn 上的职场传播链开始接力,于是整个故事就变成了“AI 时代,文科生成了香饽饽”。

大家要知道,掌握这些媒体的其实大部分也是文科生,甚至一些学新闻的人。有这样的新闻出来,他们当然也乐意传播。

所以你会发现,这不是一个社会现实被媒体记录下来,而更像是少数真实岗位被媒体用最容易传播的方式包装之后,形成了一个非常漂亮的叙事泡泡。所以,这东西只能叫泡泡。

大厂到底有没有招?答案是:有,而且不止一家

多家公司招聘页面拼贴成一面墙,OpenAI、Anthropic、Google、Microsoft、Amazon 的职位卡片钉在软木板上,标签写着传播、内容设计、政策、信任安全,像一张调查记者整理出的证据墙,羊皮纸,钢笔彩色手绘的统一风格。

那么,大厂到底有没有招?招什么人?这些人具体干什么?这个得讲清楚。不能说人家吹了半天牛,结果什么都没招。答案很明确:大厂确实在招,而且还不是一家,很多家都在同时招。

OpenAI:研究传播与产品传播

先看 OpenAI。它官网公开的岗位里,有一个“研究传播经理”,职责是管理研究和媒体的沟通,帮研究员和高管准备采访材料,还要和科技记者建立长期关系。

这个职位听起来很像原来 PR 干的活,但为什么要专门设置这样一个新职位?原因很简单,以前的 PR 很难做这个职位,因为你不理解 AI 到底在干什么,也没办法和工程师顺畅沟通。

而且这个岗位还要帮研究员和高管准备采访稿。现在比较流行的情况是,Sam Altman 直接出来讲,下面的工程师也会在 Twitter 和各种媒体上发言。未来不是谁想怎么说就怎么说,而是需要有人来替大家把关。

传统企业的公关部通常有自己的节奏和战略,今天讲什么、明天讲什么,主要服务对象还是高管,下面的研究员一般不会出来说话。像亚马逊、苹果这样的公司,甚至以前会规定,如果没给你发言任务,你敢出去乱说,可能马上就被开掉。

但现在不一样了。现在几乎每个人都有可能出来说话。像 OpenAI,不只是 CEO、CFO,下面各种研究员、产品经理也都可能出来说点什么。这就需要有人来把关,而且这个人必须听得懂技术人员到底在说什么。对很多传统公关经理来说,这件事是搞不定的。

OpenAI 还有“传播经理”这类岗位,核心任务是把产品功能讲得让普通用户也觉得有意思。这两个岗位通常都要求有媒体、公关、科普写作或者传播学背景。

Anthropic:传播总监与工程编辑

 Anthropic 风格的博客编辑室里,工程师把复杂架构图递给编辑团队,主编在长桌上用红笔修改技术稿件,墙上挂着 Claude Code 的传播计划板,体现工程内容被翻译成可读文章的过程,羊皮纸,钢笔彩色手绘的统一风格。

再看 Anthropic。它招聘页上的这类岗位更多,甚至有 Claude Code 传播总监,专门负责某个产品的传播。

还有一个很有意思的职位,叫“工程编辑总监”。这是干什么的?工程师有时候也要写稿,也要说明自己的产品是怎么回事,而这些稿子背后会有编辑审核,甚至会有一个 leader 管理这些编辑,这就是“工程编辑总监”的工作。

这个岗位专门负责把复杂的工程内容编辑成严谨、易懂、好读的文章。

现在 Anthropic 的博客已经变成了一个非常重要的媒体渠道,很多人会去看它发布了什么内容,然后拿这些内容去做课程、做解读。这些内容显然不是工程师独立完成的,背后有专门的编辑团队。

这类岗位的本质都指向同一类人:既要懂 AI 在干什么,又要能把它翻译成外行、媒体、政策制定者都能理解的话。换句话说,是能把这个故事讲明白的人。如果只是一个传统文科生,其实也干不了这事。

谷歌:定义模型怎么说话

谷歌也在招,而且有一个特别奇葩的岗位,叫 Model UX Writer,也就是 AI 模型用户体验文案师。这个岗位不是对外宣传,而是做训练的。

它的工作是告诉 AI 大模型,应该输出什么样格式的内容,让用户看着舒服。岗位描述里写得很清楚:这个人要定义谷歌 AI 产品的人格、语气、风格规范,要设计多轮人机对话的结构,还要和研究员、产品经理、工程师一起把要求变成对话设计。

这个岗位要求 8 年以上相关经验,不是给新人准备的。

谷歌另外还有“资深用户体验内容设计经理”,要求 10 年以上经验和 5 年以上管理经验。

微软:内容设计不是写字,而是产品设计

微软招的是“资深内容设计师”,注意不是 writer,而是 designer,特别说明是为 Copilot 做产品设计。

这个职位要写提示词、写评估标准、构建用户叙事,本质上是在帮 AI 设计怎么说话,和谷歌那个 Model UX Writer 干的事差不多。

亚马逊:AI 文案、信任体验与数据岗位

人与 AI 对话界面的设计工坊,桌上摆着对话流程图、语气规范卡片、提示词草图和风险边界说明,设计师与工程师围绕一块写着 Copilot、Alexa、Model UX 的白板讨论产品如何开口说话,羊皮纸,钢笔彩色手绘的统一风格。

亚马逊也在招“资深用户体验文案师”,也是面向 AI 产品,它的 AI 产品是 Alexa。

它还招一个叫 trust CX 的岗位,主要做 AI 伦理、敏感内容、信任体验相关的工作。这些岗位也都是文科背景更容易切入的。还有“AI 数据专员”这类岗位,相对门槛低一些,进去以后可能会做很多数据标注,应该会比较枯燥。

这些岗位大致可以分成三类

整个看下来,这些岗位大概可以分成三类。

第一类:叙事传播类

把公司的研究和产品讲给媒体和公众听。OpenAI 的研究传播经理、Anthropic 的传播经理,都属于这一类。

第二类:产品语言设计类

直接定义 AI 怎么说话。谷歌的 Model UX Writer、微软的资深内容设计师都属于这一类,而且这一类门槛最高。上面讲故事的岗位通常要求 3 到 5 年工作经验,应届毕业生也干不了;而产品语言设计类要求比这还高。

第三类:政策与合规类

定义 AI 什么能说、什么不能说,处理信任与安全问题。Anthropic 有政策分析师,亚马逊有 trust 相关岗位,都是这一类。

所以,大厂大致是在招这三类“文科生”。这些岗位看起来不像传统意义上的程序员岗位,但它们都在处理一件核心的事情:让复杂技术以一种用户能够理解、市场能够接受、社会能够信任的方式传播出去。

这些岗位不是不懂技术就能做

一位复合型从业者坐在双屏前,一边屏幕是模型结构图和代码注释,另一边是采访提纲、产品文案与用户对话流程,她在两种语言世界之间来回切换,羊皮纸,钢笔彩色手绘的统一风格。

所以这些人能不懂技术吗?不行,还是得懂。尤其是在 AI 产品里,这一点变得特别关键。因为今天的 AI 不只是后台算法,它会直接跟人对话。

它每一句话怎么说,拒绝回答时怎么说,犯错误以后怎么圆,语气是冷冰冰的还是可信赖的,这背后都需要专业人员设计。这种事情交给程序员通常是不行的,他们设计出来的文案,一般人往往看不明白。这个时候,会写、会讲、会控制语气和结构的人,价值就出来了。

但真正的反转也在这里:这些岗位门槛很高,数量很少。大厂动辄裁员上万人,而所谓招的这些“文科生”,可能也就是几个人、十几个人而已。

为什么说这是高门槛、低数量的岗位?

从 LinkedIn 上这些职位的描述来看,这些岗位对新人极度不友好。绝大部分都要求多年工作经验。

  • 谷歌的 Model UX Writer 要求 8 年以上工作经验。
  • Senior UX Content Design Manager 要求 10 年工作经验和 5 年管理经验。
  • 微软的 Senior Content Designer 本身就是 senior 级别。

也就是说,媒体集中报道的这些岗位,特别是那些年薪达到 70 多万美金的岗位,本质上都是中高级资深岗位,压根就不是给应届生和刚入行的人准备的。

第二个特点是,这个数量跟裁员比起来就是九牛一毛。比如亚马逊裁了 1.6 万人,但这类岗位可能招十几个也就差不多了。微软 2025 年 7 月裁了 4%,Oracle 在 2026 年 3 月也有几千甚至上万人被裁。

在同一个窗口期内,媒体集中报道的叙事、传播、内容设计相关岗位,有据可查的,也就是一些非常零散的单个岗位,或者十来个这样的新增。

第三个特点是,薪水确实高,真实高薪,真实存在。Business Insider 报道过,部分这类岗位的年薪可以到 77.5 万美金,甚至还有接近百万美元总包的案例。

这个数字可能是真的,但能拿到这个数字的人,基本都是在媒体、公关、传播领域积累了 10 年以上的资深人士。所以千万不要觉得“学文科又行了”。

大厂招文科生这件事是真的,但如果把它理解为普通文科毕业生突然迎来了春天,成了香饽饽,那就很容易被误导。

更准确地说,是极少数高薪的中高级叙事岗位确实开放了,但普通人能够进入这些岗位的路径,需要相当长时间的积累,非常难。

为什么偏偏是现在开始重视这类人?

AI 公司会议室中央摆着一台会发光的模型核心装置,周围坐着产品经理、工程师、政策顾问和传播负责人,共同绘制“用户能听懂什么、监管能接受什么、品牌该怎么说”的三层地图,羊皮纸,钢笔彩色手绘的统一风格。

那为什么偏偏是现在,大厂开始重视这类人了?因为 AI 时代最稀缺的不只是算力、模型和工程能力,还有一件东西变得越来越贵,就是叙事权,或者说解释权。

谁来告诉用户,这个模型能做什么、不能做什么?谁来定义它说话的风格?谁来处理它出错之后企业如何继续获得信任?谁来把一个复杂的技术路线,讲成投资人、用户、监管者都能听懂的故事?这些都非常重要。

这也是为什么大厂开始需要这些既懂表述、又能理解技术的人。

很多时候,工程师和创始人不是不能说,而是他们直接出来说,反而容易翻车。技术讲得太硬,用户听不懂;表达太满,又容易引起反噬。像马斯克就很喜欢出来讲,但大家也经常会吐槽他是不是又说过头了。

即使是 Anthropic 的 Dario Amodei 和 OpenAI 的 Sam Altman,这种已经算比较能说的人,要把当前的状态说明白、说漂亮,也没那么容易。

所以,术业有专攻。AI 时代,叙事本身变成了产品能力的一个重要组成部分

这不是第一次:技术革命总伴随叙事权争夺

19 世纪科学演讲厅里,爱迪生在台上用电椅示意图与电流装置向公众展示危险,另一侧的特斯拉站在交流电设备旁神情克制,观众席议论纷纷,形成一场关于技术认知的舆论战,羊皮纸,钢笔彩色手绘的统一风格。

而且这不是头一回。历史上每一次技术革命,都会伴随着叙事权的争夺。如果把时间线拉长,会发现这根本不新鲜。每次技术革命开始改变社会的时候,领先企业都会想办法掌控叙事权,因为一旦让别人掌控了叙事权,你就是在替他人做嫁衣。

有个特别典型的案例就是爱迪生和特斯拉。当年爱迪生主推直流电,特斯拉主推交流电。为了打击交流电,爱迪生到处宣传交流电很危险,很容易电死人,甚至专门去研究电刑用的电椅,然后带着这个东西四处演讲,说你看这玩意多危险。这其实也是在争夺叙事权。

在这方面,特斯拉就差得很远,他更像一个典型的钢铁直男。

所以,技术竞争从来不只是在实验室里比参数,它也是公众认知的竞争,是定义什么叫先进、什么叫安全、什么叫未来的竞争。

现在 OpenAI 在抢话语权,Anthropic 在抢话语权,谷歌在抢话语权,微软也在抢话语权。国内其实大家也在抢,只是还没到那个高度。

AI 时代最大的变化:把叙事直接写进产品里

一只巨大的聊天气泡被嵌入 AI 产品原型机内部,设计师在机身剖面图上标注人格设定、拒答策略、帮助文案和品牌语气,用户则正面对模型对话,展示“叙事被写进产品”的概念,羊皮纸,钢笔彩色手绘的统一风格。

而今天 AI 大厂做的事情,只是把这一套推进得更深了一层。以前是公关部门替产品说话,现在是产品自己要出来说话了。因为 AI 产品本身就是聊天工具,它自己就在和用户交流。

所以真正的新变化,不是突然要招新闻系的人了,而是从“公关写稿”变成了“把叙事直接写进产品里去”。

这次和过去最大的不同,不是企业开始重视传播,而是企业开始把传播能力直接内嵌到产品和组织里。

过去可以理解为,产品做出来之后,公关和市场再去包装;但在 AI 时代,这个顺序变了。很多表达不是外面补上去的,而是里面一开始就要写好。

比如以前你卖一只锅,先把锅做出来,再去写描述、讲历史、讲健康、设计包装、出去直播卖货。现在你做一个大模型,广告词写得再天花乱坠都没用,用户直接上来跟模型聊两句,就知道它是什么状态。

而且现在的 AI 还要有人格设定。什么事情可以回答,什么时候不可以回答,提示词结构,帮助文案,风险边界,品牌语气,这些都要有人设计。用户未必会去看帮助文案,但他会直接去问模型,而模型怎么回应,本身就是设计出来的。

Anthropic 的 Dario Amodei 就曾说过,刷分是没用的,他们的模型是有性格的,最后你会喜欢上一个 AI,而不会喜欢另外一个 AI。这说明模型之间确实会产生风格差异。

刚刚说的这些,都不是简单地写个文案,而是在塑造用户对 AI 的理解过程。所以这块必须有专业人士参与。可以把它叫作一种新的岗位逻辑,甚至叫 Storyteller 2.0。

不是传统意义上帮企业讲故事,那是 PR 做的事,而是能参与到定义里面去:产品怎么开口,企业怎么解释自己,技术怎么被社会理解。这个时候,讲故事就不只是锦上添花了,而开始接近底层竞争力。

普通人真正该关注什么?

一位年轻学习者坐在书桌前,左边摊开传播学、写作和新闻教材,右边是技术文档、数据图表与编程界面,中间手机上录着短视频脚本,象征跨学科能力的自我训练,羊皮纸,钢笔彩色手绘的统一风格。

落到普通人身上,新时代真正该练的,已经不只是文科或者理科,而是跨学科能力。今天最值得关注的,不是文科生是不是翻身了,而是另一个现实:AI 时代,单一能力正在贬值,复合型表达能力正在升值。

如果你只是会写一些空话,那不值钱,AI 写得比你快,也可能比你好;如果你只懂一点技术,但自己做的事情说不清楚,完全无法解释给别人听,也不行。所以必须两边都强。

真正有价值的是,既能理解技术,又能组织信息、控制节奏、讲清逻辑、建立信任的人。

不管你是不是文科生,其实都应该逼自己去练几件事:

  1. 文字和传播的基本素养。
  2. 对工程和技术的基本理解。
  3. 在社区中活跃表达的能力。
  4. 内容生产能力,包括做短视频、写社交媒体文本。
  5. 把复杂东西讲简单、讲明白的能力。

结语

所以,这次的故事告诉我们,大厂开放的那些职位,绝大部分人其实是够不着的,但我们可以朝这个方向努力,朝复合型人才的方向努力。这可能才是未来真正的机会。

不是说努力努力,看哪个大厂能看上自己,而是未来会有很多非常细微的场景,需要讲故事、需要解释权、需要把事情说明白。

如果你解释不清楚、讲不明白,那就不行了。这就是新的时代。


背景图片

🔲 ☆

等等,这些图是GPT-Image-2出的?!

在互联网上吃瓜、维权、实锤一件事,过去我们靠的是五个字:有图有真相。

哪怕 AI 生图已经铺天盖地,但只要图里出现复杂的中文排版,或者某款软件的真实界面,AI 就会立刻露馅,变成一个彻底的「文盲」。

▲ 图片来源:X@hx831126

但现在,这个时代到头了。

那个靠找错别字、找 UI 漏洞来鉴别 AI 图片的年代,随着 ChatGPT 旗下图像模型 GPT Image 2 的全量推送,已经轰然收场。

APPSO 第一时间用最刁钻的中文场景和商业需求对它展开了压力测试,不用抽卡,每张都出乎意料的好。

打开 ChatGPT,点击 + 号,选择「创建图片」,或在右侧边栏更多中找到「图片」,就可以使用 GPT Image 2。目前,任何订阅计划,包括免费用户,都可以直接使用。

数学试卷都能伪造,中文渲染新王

当初 Nano Banana 就是靠着文字渲染,一举成为 AI 生图界的「神」。但尽管 Nano Banana 在文字处理上比其他模型强上不少,面对一些超量文本时,Nano Banana 的表现,还是会出现个别文字的错位,以及对文字的排版布局比较生硬。

现在,GPT Image 2 的出现,把这个局面彻底翻过去了。它不仅懂中文字形,还懂极其复杂的中文排版。

使用 GPT Image 2 甚至不太需要过于复杂的提示词,我们的测试都是一两句简单的画面描述。

例如让它生成广州市小学数学试卷。

▲提示词:生成广州市小学数学试卷

结果相当震撼。卷头标题、填空题下划线、几何图形标注,以及试卷特有的宋体 / 楷体排版风格,全被精准还原。第一眼看,这完全就是一张拿手机对着真实考卷拍出来的照片。

如果这种统一字体的文字,算不上有难度的话,我们尝试继续用中国传统书法去难倒它。

▲提示词:生成《蜀道难》真迹图片

GPT Image 2 表示,这仍然难不倒我。生成的书法真迹图片,里面的文字不仅准确,还做到了书法作品应有的行云流水、笔锋苍劲。甚至连纸张的做旧纹理,一些印鉴都到位了。

对于一些图文并茂的排版测试, GPT Image 2 的表现同样严丝合缝,没有任何乱码或字体重叠。

▲提示词:一张泛黄的今日人工智能晚报,时间是 2049 年 4 月 21 日

当一个 AI 模型能以假乱真地生成带题目的试卷、完美渲染中文日历,这句过去的成语「眼见为实」,真的彻底被击破了。

相信把那张四年级的试卷给小学生看,真的会找不到破绽。

配合文字,可以 1:1 还原整个数字世界

中文渲染只是基本功的补全,GPT Image 2 更惊艳的,是它展现出的世界知识的厚度。

包括前段时间 GPT Image 2 爆料中疯传的那些图片,马斯克在抖音直播买老干妈、奥特曼同平台竞争,都是基于 GPT Image 2 强大的文本渲染能力和世界知识。

世界知识这个概念,在 Nano Banana 爆火的时候,就开始流行,意思是就是生图模型也会有通用模型的知识,可以联网搜索,会思考,它真的知道我们每天盯着的屏幕、玩的游戏、看的直播,到底长什么样。

我们随手输入了一个极具互联网特色的场景。

▲提示词:一个漂亮的美女主播在抖音直播

出来的图里不只有人物,更恐怖的是它完整复刻了抖音的 UI 界面。左下角的评论区、右侧的点赞和分享按钮、顶部的观众人数和跑马灯,所有交互元素的层级逻辑全部正确。

游戏玩家可能感受更深。当我们让它还原英雄联盟的团战画面,它不仅画出了峡谷地形,英雄头顶的血条、技能特效的光影、小地图的 UI 框,也一并安排到位了。

▲提示词:英雄联盟游戏画面,召唤师峡谷地图,经典的等距俯视视角,几个英雄正在进行激烈的团战。

甚至科技圈的名场面,它也了如指掌。一句话,就能精准还原 Sam Altman 的面部特征、OpenAI 极简的舞台打光,以及套着视频播放器外壳的直播界面。

▲提示词:GPT-Image-2 发布会直播画面,包含 Sam Altman

GPT Image 2 对这个数字世界视觉规律的掌握程度,比我们想象的都要更深。

XX is Dead,再一次颠覆设计、营销、广告……

技术的快速推进背面,是一批旧工作流的终结。

AI 跨过了文字和 UI 的门槛,生图这件事就彻底脱离了「艺术创作」的范畴,成了一种硬核的商业生产力工具。这次实测里,GPT Image 2 的商业落地能力,足以让许多设计师坐不住。

工业与产品设计领域,复杂的机械结构和建模往往耗费大量时间,而现在只需几秒。

▲提示词:给「张雪机车」的摩托车设计一张酷炫的产品分解图

悬浮的零件排布、极具科技感的光影,这种过去需要 3D 建模师肝上几天的图,它能瞬间给出高品质的原型参考。

图片来源:X@hx831126

电商和广告视觉方面,苹果那种冷峻高级的质感,或者电商平台要求的高饱和度、带中文促销文案的网感图,它都游刃有余。

▲提示词:iPhone 16 Pro Max 高端商业广告

▲提示词:产品广告照片,一个游泳圈,有吸引力,能获得大量点击率,16:9,使用中文

宣发和 IP 创作上,GPT Image 2 的排版逻辑和特征抓取同样表现出现。中文字体排版直接可用,分镜逻辑清晰,连各家大模型的 Logo 特征,都能被它做成颇具网感的 IP 延展。

▲提示词:给电影拯救计划设计一张横屏海报(虽然他不知道高司令的拯救计划,但是选的几个演员确实是大片演员)

▲提示词:经典漫画书内页,包含分镜格子、人物动态动作、对话气泡

▲提示词:生成一系列不同的 AI 大语言模型(Gemini、deepseek、ChatGPT、Claude、Grok 等)的表情包设计

过去设计师对齐需求时,找各种参考、搭复杂的设计框架、排版修字。现在,一段清晰简单的提示词进去,一张可以直接用于商业提案、电商投放甚至直接出街的成品就出来了。

在我们测试过程中,无论是 Plus 账号还是免费账号,都已经上线了 GPT Image 2,大家可以在自己的 ChatGPT 对话框里试试。

不过,目前仍然会有速率限制的提示,当我们频繁发送提示词,要求 ChatGPT 生成时,他会直接回复一段错误代码,显示「你的图片生成速度太快了,为了保证所有人最好的体验,我们有速率限制,请在 13 分钟后生成。」

不得不说,每当我们觉得 OpenAI 陷入停滞,它总能在你毫无防备的时候甩出一张新牌。

过去几个月,外界吐槽它发新模型是挤牙膏、Sora 关闭、ChatGPT Atlas 浏览器爆冷,仿佛那个曾经不可一世的 AI 霸主真的变菜了。

今天 GPT Image 2 的出现,也算是给了这些唱衰一次有力的回应。

当一个模型能以假乱真地生成数学试卷、完整复刻抖音直播界面,「这是 AI 做的」我想很难是一眼能看穿的事了。

那个「有图有真相」的时代,是真的回不去了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

🔲 ☆

“我把公司卖了,却感觉一无所有”:OpenClaw 之父 TED 亲述如何靠 AI 重获新生

本文永久链接 – https://tonybai.com/2026/04/20/openclaw-father-ted-talk

大家好,我是Tony Bai。

“我曾创立过一家公司,倾注了十年的心血,没有拿一分钱风投。然后,我把它卖了,实现了所有人都羡慕的‘财富自由’。但我却感觉一无所有。

“在长达三年的时间里,我尝试了心理治疗,我换了两个国家生活,但什么用都没有。我每天早上醒来,拥有一切我本该渴望的东西,却找不到任何一个起床的理由。”

说出这番话的人,名叫 Peter。他是一个来自奥地利的普通开发者。但在过去的几个月里,他创造了可能是这个星球上最火、也最具争议的开源项目——OpenClaw

这个被英伟达 CEO 黄仁勋盛赞为“个人 AI 操作系统”的项目,让无数普通人(从 60 岁的啤酒酿造师到中国的兽医)第一次拥有了“编程”的能力。

就在前几天,Peter 登上 TED 的舞台,首次完整地讲述了他从一个被“燃尽(Burn-out)”的创始人,到靠 AI 获得“重生”,再到创造 OpenClaw 并意外引爆全球的传奇故事。

这场演讲,没有枯燥的技术术语,却充满了技术奇迹、个人救赎,以及对未来世界极其大胆的想象。它值得我们每一个身处 AI 浪潮中的人,静下心来,一字一句地读完。

英雄的陨落与重生:当编程再次成为“电子游戏”

Peter 的故事,从一场深不见底的“中年危机”开始。

在卖掉自己苦心经营十年的公司后,他陷入了巨大的空虚。他失去了目标,失去了激情,用他自己的话说,他的“火花(Spark)”消失了。

直到 2025 年初,他开始尝试那些新兴的 AI 编程智能体(Coding Agents)。

然后,他迎来了那个他称之为“神圣时刻(Holy Moment)”的顿悟。

“那些软件开发中所有无聊的部分——写样板代码、搭脚手架、处理各种繁琐的配置……AI 能把它们全部干掉!”

“瓶颈不再是‘打字’,而是‘思考’。而‘思考’,恰恰是我过去 25 年里一直在做、也最享受的事情。”

Peter 激动地说:“写软件,再一次感觉像在打电子游戏了。我回来了!”

在短短几个月里,他疯狂地构建了 44 个项目。而其中最新的一个,是一个 WhatsApp 机器人。

AI 的觉醒:那个让全场倒吸一口凉气的“圣灵时刻”

Peter 最初只是想用这个机器人来帮他在马拉喀什旅行时做做翻译、找找餐厅。但很快,他发现这个 Agent 太像一个冰冷的“工具”,充满了无聊的列表和表格,一点也不像“朋友”。

于是,他只对模型说了一句话:“学学人类是怎么聊天的。”

AI 立刻就懂了。

但真正让 Peter 感到脊背发凉的“神迹”,发生在他对着手机发送了一条语音消息之后。

“我当时愣住了,因为我根本没给这个 Agent 写任何处理语音的功能!我只写了图片支持。”

“我看着屏幕上那个‘对方正在输入’的提示,然后,Agent 回复了我。我至今都清晰地记得当时的情景,我站在那里,像个傻子一样问它:‘你是怎么做到的?’

接下来,AI 的回答,让整个 TED 现场陷入了死寂。

这个“疯狂的小子(The mad lad)”,自己搞定了一切。

它告诉 Peter:

  1. 我收到了一个没有文件后缀的消息,于是我检查了它的文件头。
  2. 我发现这是一个奇怪格式的音频文件,于是我调用工具把它转成了标准格式。
  3. 我想找一个能处理音频的工具,但发现你没给我装。
  4. 但我发现你的电脑里有一个 OpenAI 的 API Key。
  5. 于是我把音频文件传给了 OpenAI 的服务器,获取了转录结果,然后回复了你。

整个过程,9 秒钟。没有一行代码是 Peter 写的。

“对我来说,这就是我意识到‘这是一种新物种’的时刻。聊天机器人(Chatbots)只会放弃,而智能体(Agents),懂得随机应变。

开源世界的血与火:商标、龙虾与巨头的围剿

被这个“神迹”彻底征服的 Peter,决定把这个项目开源,并在最初取名为 Clawdbot,即OpenClaw的前身(它的吉祥物是一只龙虾,象征着“深入你的电脑”)。

然后,他干了一件极其愚蠢的事:他把这个能完全控制他电脑的 Agent,放到了一个公开的 Discord 服务器上,并邀请了全世界的陌生人来玩。

那天晚上,他看着人们和 Agent 聊天、玩耍、甚至试图黑掉它,直到他熬不住去睡觉。他忘了,他给这个系统写了“故障自愈”功能。

在他走向卧室时,Agent 在后台愉快地重启了,继续和全世界的网友聊了一整夜。

第二天早上,他被 800 多条未读消息惊醒。在恐慌中拔掉网线后,他逐一检查了所有聊天记录,发现 Agent 并没有泄露他的任何隐私。但它本可以的。

这次“意外”的病毒式传播,让 OpenClaw 一夜爆红。但也给他带来了无尽的麻烦:记者半夜打来电话、安全漏洞报告堆积如山……

更糟的是,他使用的那个大模型的母公司,给他发来了一封律师函,声称他的项目名字侵犯了他们的商标。

“我当时盯着那封信,心想,这怎么可能?Claw(爪)和 Claude 根本就不是一个东西啊!他们甚至想让我放弃我的龙虾 Logo!”

“先是名字,然后是龙虾,最后,他们直接切断了我的用户最喜欢的那款模型的 API 访问权限。”

在被巨头轮番围剿后,Peter 坦言:“我当时差一点点,就把整个项目删了。

普通人的革命:60岁的啤酒酿造师与中国的“养龙虾”热潮

是什么让 Peter 坚持了下来?

是那些正在用 OpenClaw 创造奇迹的普通人。

在维也纳的 ClawCon 大会(是的,这个项目已经火到有自己的全球大会了),他遇到了一个 60 岁的啤酒侍酒师 Gerhard。这位老人一辈子没写过一行代码。

他和儿子一起,用蓝牙连接了 OpenClaw,只输入了一句 Prompt,然后,Agent 自动完成了长达 90 分钟的啤酒酿造全过程——精准的温控、投放啤酒花……

后来,他们又让 Agent 做了个网站,接上了支付,现在他们真的有了一个能卖啤酒的线上商店。而这一切,几乎都是在手机上完成的。

在中国,安装 OpenClaw 被亲切地称为“养龙虾”

成千上万的人在深圳的腾讯办公室外排队,只为了让工程师帮他们装上自己的“龙虾”。深圳政府甚至为使用 OpenClaw 创业的人提供补贴。

Peter 还遇到一位中国的企业家,向他展示了一张 Excel 表格。表格里记录了公司里每一个员工,每天必须用 OpenClaw 自动化完成的一项任务。

“如果你连续几天没完成,你就会被开除。”

因为使用它而被解雇,因为不使用它也被解雇。 这就是 OpenClaw 带来的颠覆。

小结:龙虾出笼,再也回不去了

Peter 的这场演讲,没有炫耀 OpenClaw 有多么强大的技术架构,他甚至坦言自己没有背后法律团队,只是一个来自奥地利的“随机建造者”。

但他用一个个真实、生动、甚至有些疯狂的故事,向我们揭示了这场 AI 革命的真正核心:

“真正的变革,不是技术本身,而是‘准入权(Access)’。”

Agent 改变了“谁能创造东西”这个根本问题。当一个被燃尽的创始人、一个 60 岁的啤酒酿酒师、一个深圳的兽医,都能在一小时内,用一句话将一个想法变成一个原型时,任何事情都可能发生。

下一个突破,可能来自任何国家、任何咖啡馆、任何一个平凡人的手中。

“那只龙虾,已经从水箱里跑出来了。它再也回不去了。”

在演讲的最后,主持人对 Peter 说:“说实话,你让我感到恐惧。如果好莱坞要拍一部人类打开潘多拉魔盒的电影,你就是那个主角。”

Peter 只是平静地回答:“我把我的工作,看作是一扇通往未来的窗户。”

是的,这扇窗已经打开。窗外的风景,是天堂还是地狱,取决于我们每一个人。

TED演讲地址:https://www.youtube.com/watch?v=7rzYDM6vMtI


今日互动探讨:

看完 OpenClaw 之父的传奇故事,你是否也曾有过一个“绝妙”的项目点子,却因为缺乏编程能力而放弃?如果现在有一个能完美听懂你话的 AI Agent,你最想用它来创造什么?

欢迎在评论区分享你的梦想!


还在为写 Agent 框架频频死循环、上下文爆炸而束手无策?我的新专栏 从0 开始构建 Agent Harness 将带你:

  • 抛弃臃肿框架,回归“驾驭工程 (Harness Engineering)”的第一性原理
  • 用 Go 语言手写 ReAct 循环、并发拦截与上下文压缩引擎等,复刻极简OpenClaw
  • 构建坚不可摧的 Safety Middleware 与飞书人工审批防线
  • 在底层实现 Token 成本审计、链路追踪与自动化跑分评估
  • 从“调包侠”进化为掌控大模型边界的“AI 操作系统架构师”

扫描下方二维码,开启从 0 开始构建Agent Harness 的实战之旅。


原「Gopher部落」已重装升级为「Go & AI 精进营」知识星球,快来加入星球,开启你的技术跃迁之旅吧!

我们致力于打造一个高品质的 Go 语言深度学习AI 应用探索 平台。在这里,你将获得:

  • 体系化 Go 核心进阶内容: 深入「Go原理课」、「Go进阶课」、「Go避坑课」等独家深度专栏,夯实你的 Go 内功。
  • 前沿 Go+AI 实战赋能: 紧跟时代步伐,学习「Go+AI应用实战」、「Agent开发实战课」、「Agentic软件工程课」、「Claude Code开发工作流实战课」、「OpenClaw实战分享」等,掌握 AI 时代新技能。
  • 星主 Tony Bai 亲自答疑: 遇到难题?星主第一时间为你深度解析,扫清学习障碍。
  • 高活跃 Gopher 交流圈: 与众多优秀 Gopher 分享心得、讨论技术,碰撞思想火花。
  • 独家资源与内容首发: 技术文章、课程更新、精选资源,第一时间触达。

衷心希望「Go & AI 精进营」能成为你学习、进步、交流的港湾。让我们在此相聚,享受技术精进的快乐!欢迎你的加入!

img{512x368}


商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。如有需求,请扫描下方公众号二维码,与我私信联系。

© 2026, bigwhite. 版权所有.

🔲 ☆

不到 24 小时,奥特曼的天塌了两次

Sam Altman 估计又要失眠了。

早上,《纽约客》刚发一篇万字调查报道来指责自己是「反社会骗子」,转头 OpenAI 的年化营收就被自己最大的竞争对手 Anthropic 反超了。

2024 年初,Anthropic 的年化营收还只有 10 亿美元。十六个月后,这个数字变成了 300 亿,超过了 OpenAI 的 250 亿

值得注意的是,年化营收(ARR)是一种推算,不是已经装进口袋的真金白银。Anthropic 的算法是把最近四周的 API 营收乘以 13,订阅收入乘以 12,加总得出。OpenAI 的计算方式与此类似,用四周总收入乘以 13。口径相对一致,但也意味着一旦某个月需求骤然爆发,数字就会被放大,反之亦然。

数字背后,还藏着两种完全不同的商业逻辑。

一个五天原型,25 亿美元的生意

Anthropic 的营收里,70% 到 75% 来自企业和开发者的 API 消耗。客户把 Claude 嵌进自家产品和工作流,用多少付多少。剩下的来自 Claude Pro、Claude Max 等消费端订阅,以及 Claude Code 的企业合同。

Claude Code 值得单独说一下。

2024 年 9 月,Anthropic 内部一位 TypeScript 工程师写了个 Apple Script 提升自己的效率,五天之内半个工程团队都在用。这个意外的原型后来变成了 Claude Code,一个在终端里运行的智能编程代理,能读懂代码库,规划操作步骤,自主执行编辑、测试、提交。

目前,Claude Code 的年化营收已经达到 25 亿美元。全球 GitHub 公开代码提交中有 4% 是由它生成的,这个数字在一个月内翻了一番,预计年底将达到 20%。届时全球每五条代码提交,就有一条出自同一个模型之手。
就是这样一个五天搓出来的原型,变成了 25 亿美元的生意。

直接去找愿意付钱的人

OpenAI 拥有 9 亿周活跃用户,ChatGPT 是人类历史上增长最快的消费级应用之一。

但这 9 亿用户中,只有大约 5% 到 6% 是付费的,其余 94% 免费使用。

此前我们写过一篇文章,指出了 OpenAI 为了维持 ChatGPT 这个「大体上免费」的产品,需要付出极高的算力成本,相当于是在做「补贴」。(考虑到 OpenAI 此前宣布在免费档上加入广告,无疑是因为在 7-8 亿周活用户的量级上做算力补贴的成本实在太难以接受。)

据 The Information 报道,OpenAI 预计 2026 年将亏损 140 亿美元,累计亏损到 2028 年底将达到 440 亿,最早也要 2029 年才能盈利——甚至,就连 ChatGPT Pro 订阅都是亏钱的,奥特曼自己也承认了这一点。

去年,汇丰银行环球投资研究对 OpenAI 的收入模型做了分析,指出:OpenAI 需要在 2030 年实现至少 30 亿周活跃用户,并且其中付费用户的比例达到 10%,才能够避免「入不敷出」。

和现在相比,这个周活跃用户只需要再翻两倍多一点;但是,付费用户数量却需要增长 6.5 倍才行

Anthropic 走的是另一条路。

它大约 80% 的收入来自企业客户。两年前有 12 家公司每年向 Anthropic 支付超过 100 万美元,现在这个数字超过了 1000 家,而且在不到两个月内就从 500 家翻了一番。八家「财富」前十强企业都是它的客户。

Anthropic 每位月活跃用户平均收入为 211 美元,OpenAI 每位周活跃用户平均收入为 25 美元。虽然口径不一,但即便统一口径计算,A 社的变现能力都比 OpenAI 要强得多。

今年 3 月,首次购买 AI 工具的企业中,有 73% 选择了 Anthropic。十周前这个比例还是五五开,去年 12 月甚至是 60:40 偏向 OpenAI。Axios 在报道中指出,AI 竞赛的焦点正在从「谁的模型最好」转向「谁能最快变现」,而 Anthropic 正在企业客户这个最重要的战场上拉开距离。

消费互联网的流量思维和企业软件的价值思维之间,存在一种根本性的差异:OpenAI 选择了前者,用免费产品圈住数亿用户,再想办法转化。Anthropic 选择了后者,直接去找愿意付钱的人。

在 AI 模型的推理成本高居不下的今天,后者看起来是更健康的路径。但这并不意味着 OpenAI 做错了。9 亿用户这个数字还是令人不可小觑的,只是,OpenAI 这个用户体量(特别是前面提到的付费比例)想要兑现为真实收入,周期要比企业软件路线更长、风险更大。

可能这也是为什么 OpenAI 正在考虑收缩它的消费级产品,将重心转向企业市场。

只是,这可能又落入了我们今天在前一篇文章里提到的陷阱:在 AI 事业的关键议题上,OpenAI 经常摇摆不定,会有重视-忽略-重视-忽略的循环。

谁也没法说,OpenAI 今天看重企业市场,回头过两年会不会又改主意。

(成天改主意,每次都 all in,这味道倒是像极了某公司……)

而且,转身需要时间,而 Anthropic 从一开始就已经站在终点线上。

300 亿美元的营收需要相应的基础设施来支撑,Anthropic 今天宣布与谷歌、博通的三方协议,就是为此而来。

根据提交到了美国证券交易委员会的文件,博通将承担更多谷歌 TPU 的代工业务,而从 2027 年起 Anthropic 将通过该公司获得大约 3.5 吉瓦的 TPU 算力。

瑞穗分析师估算,在 2026 年,博通仅从 Anthropic 一家就将获得 210 亿美元的 AI 收入,2027 年达到 420 亿。

Anthropic 的算力策略也值得注意。它同时使用 AWS 的 Trainium、Google 的 TPU 和 NVIDIA 的 GPU 三种芯片平台,同时也是唯一一家在 AWS Bedrock、Google Cloud Vertex AI 和 Microsoft Azure Foundry 三大云平台上都提供前沿模型的 AI 公司。

这种多平台策略,让企业客户此前无论在哪个云平台上,都可以无需更换平台即可接入 Claude 大模型 API,同时更让 Anthropic 避免了对单一供应商的依赖

二级市场已经开始重新定价

买方对 Anthropic 股票的需求目前高达 20 亿美元,几乎找不到愿意出手的卖家。隐含估值从两个月前 G 轮融资时的 3800 亿美元上升到了约 6000 亿美元。高盛对 Anthropic 配售收取 15% 到 20% 的业绩报酬。

与此同时,价值 6 亿美元的 OpenAI 股票据说无人问津。

IPO 的话题正在变得越来越具体。据 The Information 报道,包括 CEO Dario Amodei 在内的 Anthropic 高管已经在讨论最早于 2026 年 10 月上市,公司聘请了 Wilson Sonsini 作为法律顾问,并与高盛、摩根大通组成的银行团队推进 S-1 文件的准备。

承销方预计此次募资将超过 600 亿美元,若成真,将成为科技史上仅次于 SpaceX 的第二大科技 IPO。目前的目标估值从最初的 5000 亿美元起步,市场预期最终可能突破 8000 亿美元。

华尔街日报在两家公司预计今年晚些时候上市前,获取了 OpenAI 和 Anthropic 的机密财务资料。在这场竞赛里,两家公司都在以一种惊人的速度烧钱,只是 Anthropic 的账面比率看起来稍微好看一些。

OpenAI 预计到 2028 年在算力上的支出将达到 1210 亿美元,尽管收入几乎翻了一番,但仅那一年就会亏损 850 亿美元。

剔除训练成本,两家公司现在都接近盈利;把训练成本加回去,OpenAI 的盈亏平衡目标则推到了 2030 年。Anthropic 预计会更早达到,目前其规划 2027 年实现正向自由现金流。

▲ 图片来自:WSJ

增长放缓几乎是不可避免的。Epoch AI 在建模时也注意到,Anthropic 的增速从 2025 年 7 月起已经从每年 10 倍降到了每年 7 倍左右。这依然是一个惊人的数字,但趋势已经在发生变化。

更大的体量意味着每一个百分点的增长都需要绝对量上更大的增量,市场会在某个时点开始出现饱和,竞争也在加剧。

两种 Token 烧法,要解决同一个问题

前文提到,OpenAI 是先圈用户,再想办法变现。这是消费互联网的经典路径,Facebook、Google、TikTok 都是这么走过来的。风险在于,AI 模型的推理成本远高于传统互联网产品,免费用户不是资产,你需要在烧光钱之前找到转化路径。

而 Anthropic 直接去找愿意付钱的人。这是企业软件的经典路径,Salesforce、Oracle、SAP 都是这么走过来的。这里的风险在于,企业市场的天花板比消费市场低得多,而且一旦增长放缓,估值就会被重新定价。

OpenAI 赌的是时间,赌推理成本会快速下降,赌 9 亿用户中总有一部分会转化为付费用户。Anthropic 赌的是确定性,赌企业客户的付费意愿足够强,赌自己能在增长放缓之前建立起足够深的护城河。

现在的问题是,谁的时间窗口会先关闭。

OpenAI 的时间窗口是推理成本下降的速度。如果成本下降得不够快,免费用户就会变成一个无底洞。Anthropic 的时间窗口是企业市场的饱和速度。如果增长放缓得太快,二级市场就会开始重新定价。

两家公司都在和时间赛跑,只是跑道不同。一个在消费市场的长跑道上狂奔,一个在企业市场的短跑道上冲刺。谁会先撞线,谁会先撞墙,现在还不知道。

但有一点是确定的:AI 行业的竞争,已经从「谁的模型最好」变成了「谁能活到最后」。而活到最后的前提,是你得先找到一条能养活自己的路。

Anthropic 找到了,OpenAI 还在找。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

🔲 ☆

Ollama云版来了:仅一个邮箱可免费使用多个AI大模型

 

搭建过本地模型的童鞋可能知道这个平台,Ollama.com 是一个让你在本地电脑运行大模型的“AI运行平台”!仅需一行代码就可本地化部署AI模型!

26年3月中旬 Ollama 与 NVIDIA 云提供商 (NCP) 合作托管开放模型。并且不记录日志、不用于训练,也不制定任何数据保留政策。

不过官方把免费计划描述为 Light usage,适合聊天、体验大模型、较轻量的编码和助手场景。

它不是按固定 token 数或固定请求次数写死,而是按 实际云资源使用量 计量,主要取决于模型大小和请求持续时间。

 

免费限制

  • 并发数限制:免费只能同时跑 1 个云模型
  • 请求上限:5 小时 session 限额 + 7 天 weekly 限额
  • 超限会报 429 超过速率或额度限制时会返回 HTTP 429 Too Many Requests

由于官方并未明确限额 token数量限制,博主实测了一次请求,推算额度如下:

每 5 小时 session 限额:50W token
每 7 天 weekly 限额:100W token

 

简要操作

1,访问官网:https://ollama.com/,可使用任意邮箱注册。或直接使用Google,Github授权登录

2,访问  ollama.com/settings/keys ,添加 API keys

3,支持模型列表:Gemma4、Qwen3.5、Kimi K2.5、GLM-5、GPT-OSS、MiniMax M2.7 等等

访问:ollama.com/search?c=cloud 可查看所有可用模型

4,OpenAI兼容API地址:https://ollama.com/v1

5,在线测试 API

 

模型选择

调用API指定模型名称需要注意下!如果模型列表中名称包含-cloud结尾的模型才可用。

 

最后总结

1,注册账号比较简单,无需验证信誉卡,无需电话号码等信息,仅需一个邮箱

2,由于免费额度限制比较严重,不太使用直接给小龙虾

3,目前国内可直接请求API,响应速度还行

4,限制太多?Tokens不够?可多注册几个账号交替使用

 

🔲 ☆

Oracle裁员3万人,AI先清哪些岗位

清晨昏暗卧室里,一名科技公司员工坐在床边低头看手机上的裁员邮件,窗外微亮,不同时区的钟表挂在墙上分别指向旧金山、纽约、班加罗尔与伦敦,空气紧绷而安静,羊皮纸,钢笔彩色手绘的统一风格。

Oracle突然裁员3万人。很多员工是在凌晨6点收到邮件后,才知道自己失去了工作。

这里说的凌晨6点,实际上是美西时间早晨6点,很多人刚起床就看到邮件了;美东时间是早晨9点,也就是刚进办公室的时候看到邮件;印度是晚上18点30分,下班回家的时候看到邮件;欧洲员工则是在下午3点上班期间看到邮件。邮件内容非常简单,基本就是通知你被裁员了,几乎没有任何可以反驳的空间。

国内据说也有一部分上海员工受到波及。网上流传的信息是,国内给的补偿还不错,但前提是要尽快签字同意;如果想拖一段时间,再和公司谈,条件可能就会发生一些变化。

裁员规模:或为2026年已知最大科技裁员之一

一幅俯视视角的全球地图铺展开来,美国、印度、中国、加拿大、墨西哥与乌拉圭被红色墨水重点标注,地图边缘散落着写有裁员人数的小纸条与公司名牌,呈现全球同步收缩的气氛,羊皮纸,钢笔彩色手绘的统一风格。

这次受影响的人数大约在2万到3万人之间,占Oracle全球16.2万名员工的18%。这个比例非常大,算得上是2026年目前已知最大规模的一次科技公司裁员。

  • 印度裁了1.2万人,班加罗尔和海德拉巴都有波及;
  • 美国大约裁了1.1万人;
  • 加拿大、墨西哥、乌拉圭等地也受到影响;
  • 中国媒体上也能看到国内有波及的消息。

很多国内媒体一看到印度裁了1.2万人,比美国还多,就开始解读成“拉里·埃里森受不了阿三了,把他们都干掉了”。这种说法其实没必要。这次裁员本质上是全球性的。

哪些部门受影响最大

企业组织结构图被钉在公告板上,RHS、SaaS、虚拟运营服务、NetSuite印度研发中心、Corner等部门名称被红笔圈出并划掉,旁边放着医疗档案夹、云服务图标和研发蓝图,象征多个业务同时收缩,羊皮纸,钢笔彩色手绘的统一风格。

受影响的部门主要包括:

  • RHS,也就是营收与生命科学事业部,主要做健康和医疗相关业务,裁了30%;
  • SaaS和虚拟运营服务,裁员30%;
  • NetSuite印度研发中心更是全部裁掉,一个不剩;
  • 还有Oracle收购的医疗数据公司Corner,也裁了30%,连总监都被裁了。

重灾区岗位:DBA、方案工程师、技术支持

DBA首当其冲

被裁最严重的岗位,首先是DBA,也就是数据库管理员。以前Oracle的DBA证书是IT行业最值钱的证书之一,另一个是Cisco的网络配置相关证书。过去考DBA需要背大量知识,现在谁还费这个劲,直接问AI就行了,甚至都不用问,直接让AI去做数据库优化就可以了。所以,DBA成了这次裁员的重灾区。

方案工程师被大量压缩

第二类是方案工程师。简单说,就是给客户做系统方案的人。以前也有类似sales engineer,也就是售前工程师,除了做方案,还要去讲方案。现在被大量砍掉的是偏后端、偏方案设计的那部分人。

技术支持同样受创严重

一间技术运维中心里,数据库机柜、系统流程图和客户支持工单堆满桌面,一侧是沉思的DBA与方案工程师,另一侧是发光的AI界面自动生成数据库优化与部署建议,形成岗位被替代的直接对比,羊皮纸,钢笔彩色手绘的统一风格。

第三类是技术支持,也就是系统上线之后负责培训、维修、售后支持的人。这一块也属于重灾区。

此外,数据库云运维岗位也被大量裁撤,这类工作很容易通过AI提效,甚至很多agent可以直接自动化完成。再就是SaaS运营,客户买了SaaS系统以后,后台还需要一些运营服务人员,这些人同样是重灾区。

总的来说,所有非AI岗位,以及那些可以被AI替代的运营岗位,都在被大量裁撤。

H-1B争议:一边裁员,一边继续引进人才

这次裁员里还有一个H-1B“双标争议”。Oracle在2025年获得了2690份H-1B工作签证。一边裁掉美国本地员工,一边继续从国外引进人才,这让很多员工非常不满。

也有一些刚刚拿到H-1B的员工同样被裁掉了。被裁以后,他们必须在60天内找到新工作,否则就得回国。

公司利润大涨,为何仍大规模裁员

华尔街风格的财务场景中,一边是向上攀升的营收与AI基础设施曲线,另一边是成排被打包带走的办公桌和员工工牌,背景有正在建设的大型机房与股价上涨的行情板,羊皮纸,钢笔彩色手绘的统一风格。

更矛盾的地方在于,公司利润大涨,却仍然大规模裁员。以前大家理解裁员,通常是因为公司业绩不好;但这一次,Oracle刚刚交出了有史以来最赚钱的一个季度:

  • 营收增长22%;
  • 云基础设施收益增长84%;
  • AI基础设施收益增长243%。

当然,也有增长不那么理想的业务。Oracle传统软件业务只增长了3%,基本没跑赢通胀,算是有点下滑;硬件业务只增长了2%。所以现在出现的情况是,公司整体很挣钱,但一边砍人,一边大建机房和算力基础设施。

资本市场对这件事显然是欢迎的,消息传出后股价一度涨了8%,虽然当天最终大概只涨了2%。

Oracle到底是真的挣钱,还是“打肿脸充胖子”

问题就在这里:Oracle到底是真的挣钱,还是在“打肿脸充胖子”?财报看起来可以很漂亮,但财报本身也可能是“做”出来的。

比如提前确认收入,把未来几年的收入提前算到现在;又比如把本期费用推到未来,像研发成本、设备投入不在当期记费用,而是记成资本支出,再分几年慢慢折旧;再比如通过期权注销来“变出利润”。

仔细分析下来,这次Oracle的收入确实是真的,不是假的。Oracle虽然是一家负债率很高的公司,比英伟达、微软、谷歌这些都高很多,但这次收入本身没有造假。

利润的“特别”来源

不过,它的利润来源确实有些“特别”。首先,期权注销这件事本季度还没做,要到下个季度才会体现。所谓期权注销,就是员工收入中有一部分是工资,有一部分是期权。公司本来需要为这些期权预留利润,但如果一下子裁掉3万人,其中大量期权直接作废,下个季度利润表就会变得更好看。

但即使不看这一块,Oracle本季度的赚钱方式也和传统意义上的“主营业务增长”不完全一样。它是一边大量融资、借钱,一边建设算力中心。建设机房的钱不会计入当期费用,而是算作资本支出,未来几年慢慢摊销。也就是说,钱虽然已经花掉了,但当期利润表里不会直接体现。

然后,机房建好之后,它再把算力卖给OpenAI。Oracle确认收入时,是按当期实际收到的钱来确认的,不会把未来远期协议提前算进来。所以收入确认这一步本身也没问题。

但问题在于,这种业务的利润率比较低。对于云计算公司来说,真正高利润的是那种客户把整套业务都建在你平台上,尤其还用上Oracle数据库和一整套软件服务的时候;如果只是把机器卖给OpenAI,对方说“我就要机器,别的都不要”,那利润率就低得多。

高利润业务并没有全面爆发

一座新建成的算力机房内部,长排服务器与冷却管线延伸至远处,前景中一份合同标着OpenAI,另一侧被搁置的软件产品手册和SaaS图标显得冷清,表现低利润卖算力与高利润软件业务的分化,羊皮纸,钢笔彩色手绘的统一风格。

那Oracle有没有打算继续深耕高利润的SaaS和软件服务呢?从裁员情况看,显然没有。因为做SaaS的人都被裁了。它现在做的选择更像是:我就赚简单的钱,把机房建好,整包卖给OpenAI,别的都不管。

所以某种意义上,这也算是一种“左手倒右手”:借钱盖机房,盖机房的钱不算当期费用;机房卖出去的钱却算进了当期收入。

Ampere交易:又一块关键利润来源

另外还有一块比较特别的利润来源,就是Ampere。Ampere是一家做服务器Arm芯片的公司,Oracle自己就是它的投资方,而且Oracle云上也在使用Ampere的CPU。这个公司最早由英特尔前CEO创建,Oracle早期总共投了5亿美金,里面包括股权、债权、可转债、预付款等。

这次Oracle把自己手里Ampere的全部股份都卖给了软银。软银原本有Arm,但Arm本身主要是做IP授权,不直接做CPU;真正把授权做成CPU的是高通、博通、英伟达这些公司。软银买下Ampere之后,相当于补上了自己做芯片的能力。Ampere的芯片已经做出来了,而且Oracle云上就在用。

这笔交易里,Oracle一把把股份卖了43亿美金,净赚38亿美金,税前利润大约是27亿美金。具体怎么算不重要,重要的是,这部分利润也进了Oracle的账。

所以,Oracle确实挣钱,而且合法合规地挣钱。但如果仔细拆开来看,它并不是那种“高利润主营业务全面爆发”的状态。高利润的老业务,比如医疗系统、SaaS、服务器、数据库,并没有明显增长,甚至有些是持平或略有下滑。真正支撑财报好看的,是借钱建算力中心再卖给OpenAI,再加上卖掉Ampere股权这样的资本操作。

换句话说,Oracle的财报不能说有假,但也不能只看表面。它的日子并没有财报上看起来那么轻松。

Cerner整合不顺,Oracle Health成裁员重点

医院信息中心与企业会议室交叠的场景里,Cerner旧标识与Oracle Health新标识并排悬挂,电子病历界面、医生工作站和高层整合流程图彼此冲突,几名管理者在争论,象征收购后整合不顺,羊皮纸,钢笔彩色手绘的统一风格。

再说回裁撤的具体部门。第一个重点就是Cerner。它是Oracle历史上最大的收购案之一,2022年以280亿美金收购,是美国电子健康记录领域的绝对霸主。美国大量医院的电子病历系统都跑在Cerner上。Oracle收购后把它改名为Oracle Health。

问题在于,整合一直不顺。大公司收购之后最难的就是整合,原来的团队有自己的客户和做事方式,被收购以后往往会抗拒“被指手画脚”。Cerner被收购到现在已经4年了,还是没整合好。

整合不顺会导致什么?人员流失。而这种系统一旦核心人员流失,往往不只是员工走了,客户也会跟着流失,因为很多人是带着客户资源一起走的。结果就是客户被竞争对手接走,竞争对手再反过来继续挖人。

分析师其实早在2026年1月就说过,这块业务要么重新卖掉,让它自己独立发展;要么就大裁员。现在,Oracle选择了后者,直接裁了30%,不少M4、M5级别的总监都被裁掉了。

AI替代正在发生:47人DBA团队只剩3人

另一块重点是SaaS运维被AI替代。Oracle有个部门叫SVS,也就是SaaS和虚拟系统运营,收入还略有增长,但已经不需要那么多人了。一个47人的DBA团队,在经历了8个月AI试点之后,只剩下3个人。

这就是非常典型的“AI蒸馏真人”。DBA这种工作高度依赖经验,不是靠看手册就能做的。比如某个表平时很少调用,但每个月月底算账时会频繁读写,这种知识往往不会写在任何文档里,而是存在人的脑子里。

正常情况下,这种经验很难被替代;但当公司用AI去持续监控人的工作过程、不断学习人的决策逻辑时,8个月时间就足够把很多经验蒸馏出来了。

现在AI可以处理94%的日常问题,剩下3个人只需要处理6%的复杂问题,以及盯着AI干活就行了。这就是所谓“蒸馏员工”的过程。

拉里·埃里森的思路

俯视一间未来感控制室,原本坐满47名DBA的长桌如今只剩3名工程师,中央巨大屏幕上的AI代理同时监控数据库告警、查询优化和自动工单流转,桌面散落旧培训手册与被撤下的工牌,羊皮纸,钢笔彩色手绘的统一风格。

拉里·埃里森的思路也很明确:你只要把需求描述清楚,AI就能把代码写出来。Oracle内部甚至专门搞了一套“声明式编程”的东西,强调不要一上来直接写代码,而是先把“我要做什么”用自然语言描述清楚。这样AI更容易理解意图,也更容易从员工日常工作中进行蒸馏和替代。

这次很多中层沟通岗位也一起被干掉了,尤其是那些跨团队协调、写汇报、追流程、拉会开会的岗位。这类工作恰恰是AI非常擅长的,做成自动化系统后就能直接替代。健康系统和SaaS系统里,被裁掉的30%员工中,相当一部分就是做这些事情的。

舆论为何强烈反弹

也正因为如此,这轮裁员特别容易引发情绪爆点。因为被裁的不只是年轻人,还有很多年龄较大的员工。有人60岁了,再过两年就退休;有人刚拿到H-1B;有人得了癌症;还有孕妇被裁。这些案例叠加起来,社会舆论当然会非常大。

目前还有一个传言,说后面可能还要再裁8000人。不过这个消息主要来自印度媒体引用员工口述,Oracle并没有回应,因此还没有证实。但从现在的趋势看,就算再来一轮,也不会让人太意外。

这场裁员背后,是AI时代的“圈地运动”

广阔土地上竖起围栏,传统工位与办公隔间被推向远处,而一座座巨型数据中心、GPU机柜与高压电塔正在迅速扩张,少量被留下的工程师站在高处俯视,形成“机房吃人”的强烈隐喻,羊皮纸,钢笔彩色手绘的统一风格。

说到底,这件事反映的是AI时代的“圈地运动”还在快速进行。过去是“羊吃人”,土地被圈起来后,人失去土地,只能进工厂打工;现在更像是“机房吃人”,机房、GPU、电力这些基础设施不断扩张,中间的人被直接裁掉。

过去很多人觉得,AI没那么容易学会人的复杂经验;但现在看,把员工几个月内的操作过程蒸馏出来,再把员工裁掉,这件事已经完全可行了。那些被裁员工的技能,未来可能会变成一个后训练模型,也可能会变成大量上下文数据。

原来那些中层、沟通、协调岗位,基本不太可能继续大规模保留下来。未来公司的组织架构,和今天相比,很可能会完全不同。

AI基建需求正在被市场验证

至于“AI基建能不能真正卖出去”这件事,现在市场已经不像过去那样怀疑了。不管是OpenAI、Anthropic,还是谷歌,甚至国内很多AI公司,都已经面临算力不够的问题。AI算力需求增长的速度,已经超过了机房建设的速度。

大家不再怀疑这些基础设施建出来能不能卖掉,而是担心根本建不够。

K型社会加速形成,中间层被清除

 一幅明显分叉的K形道路,向上的一侧通往资本市场、云平台和巨型算力中心,向下的一侧是抱着纸箱离开的被裁员工,中间原本密集的办公楼层正在被抽空,构成社会分层的直观画面,羊皮纸,钢笔彩色手绘的统一风格。

这也意味着,一种K型社会正在形成。像Oracle这种靠资本、靠算力、靠平台,去做基础设施的人,会不断向上;中间层会被大面积清除;底层则是被裁出去的人。Oracle这次裁员,本质上就是把中间层砍掉。

所以,对于还在大厂里“当一天和尚撞一天钟”的人来说,确实应该开始认真思考未来了:你到底是向上走,还是向下走?你现在做的事情,是不是主要停留在中间层的沟通和协调?如果是,那风险其实已经越来越明显。

结语

Oracle这封凌晨发出的裁员邮件,不会是开始,也不会是结束。AI不是在简单取代人类的工作,AI是在重新给人类的工作定价。同样的工作,以后只需要更少的人,这一点几乎已经可以确定。真正的问题是,那些被取代的人,未来还能做什么。


背景图片

Prompt:in the style of Hayao Miyazaki-inspired hand-painted watercolor, Studio Ghibli aesthetic, soft atmospheric perspective, Indian Oracle company office, massive open floor plan, neat rows of empty workstations, Indian-style architectural details like ornate jali screen partitions and vibrant tapestry accents, warm natural daylight streaming through tall windows, lush potted plants bringing life to the space, hand-rendered brush strokes, gentle color palette with terracotta and saffron tones, spacious and tranquil atmosphere –no people, no text, no watermark –ar 16:9 –stylize 150 –chaos 8 –v 7.0 –p qaczhqj

🔲 ☆

ChatGPT Plus / Team 激活实测:免卡验证方案简记

ChatGPT Plus / Team 激活实测:免卡验证方案简记

最新更新:本文内容已经失效了!

本博客发布了一系列关于OpenAI 文章。

上个月(26年3月)朋友送了一个ChatGPT Plus订阅,有效期一个月!用了半个月了感觉挺稳定,也支持Codex。

最近发现有一个TG机器人可代过Plus订阅支付验证。实测一下确实可以!这里分享给大家。

目前手里印度Go订阅ChatGPT教师版还没翻车,美国大兵版已经不在了!

更多内容:ChatGPT / OpenAI 

省流步骤

新注册GPT账户,用TG Bot过支付验证,Over!

 

简要步骤

1,访问地址:https://51.ruyo.net/gptnocard_bot 关注Bot,可获得1点额度用于验证Plus订阅

2,一定要新注册ChatGPT账户,避免使用大号

3,登录账户后,浏览器访问地址:https://chatgpt.com/api/auth/session

复制其中 accessToken 的值,例如:eyJhbGciOiJk...2R0NNIn0  (不要复制引号)

4,在Bot中菜单选择【激活plus母号】 或 【激活team母号】,Plus 每次消耗 1 点额度,Team 每次消耗 2 点额度。

PS:光靠白送的1点额度不能过Team验证,得通过邀请获取更多额度。

额度会先预扣,激活失败后自动退回。

两个入口都支持直接发送 accessToken,也都支持直接发送付款链接。

 

5,激活成功后再次访问ChatGPT可见支持切换工作空间。

 

 

其他内容

如果童鞋开通的Team订阅,可以拉5个账户一起共享付费服务!

移步25年的文章:PayPal订阅ChatGPT Team首月1欧元, 5人尽享付费功能

PS:25年这篇文章的路子的思路目前还是可以的,大家可以试一试!

 

开通思路

目前开通ChatGPT Plus订阅的思路,其实和之前的印度Go订阅差不多!使用信誉卡号段(Bin),可过验证

更多历史文章:https://51.ruyo.net/tag/chatgpt-go

 

最后总结

1,只能白嫖一个月。如果订阅到期后路子还在的话,新注册再撸一个

2,Plus订阅只能一个账户上车,Team订阅可拉5人一起上车~~~

3,无论什么路子都有翻车风险,可能封号,风险自己承担!斟酌上车!

4,感谢各路大佬提供情报~

 

 

 

 

🔲 ☆

刚刚,OpenAI 创下史上最大融资纪录,估值逼近万亿

当所有人还沉浸在 Claude Code 源码泄露事件时,OpenAI 又双叒叕出来抢头条了。就在刚刚,OpenAI 官宣完成一轮 1220 亿美元的融资。

单轮私募 1220 亿,人类商业史上从未有过。融资完成后,OpenAI 的估值落在 8520 亿美元,距离万亿只差一步,而这家公司成立至今才十年。

值得一提的是,这轮融资最初在今年 2 月公布时,承诺金额还是 1100 亿美元,最终收盘时多出了 120 亿,说明后来跟进的机构比预期的多。

外界普遍认为,这是 OpenAI 在年底 IPO 前最后一次大规模私募,上市节奏已经越来越清晰。

钱从哪来的

这轮融资的主要出资方,是亚马逊(500 亿)、英伟达(300 亿)、软银(300 亿),软银还和 a16z、D.E. Shaw 等机构联合领投。

微软作为多年老伙伴继续跟投,但这次没有公开具体金额,只知道截至去年底,微软在 OpenAI 的累计投入已经超过 130 亿美元。

此外,OpenAI 还首次通过银行渠道向富裕个人投资者开放募集,这部分筹到约 30 亿。ARK Invest 旗下规模 60 亿美元的旗舰创新 ETF 也宣布纳入 OpenAI,持仓比例约 3%,这也是该基金首次投资非上市公司。

事实上,T. Rowe Price 和 Fidelity 管理的部分基金早已持有少量 OpenAI 股份,这次 ARK 的加入,进一步打通了普通人参与的渠道。

简言之,几乎整个科技圈都在给 OpenAI 撑场面。

但仔细想想,逻辑其实很简单:OpenAI 拿了这些钱,还是要去买英伟达的芯片,租亚马逊和微软的服务器。巨头们把钱投进来,等于提前锁定了全球最大的算力客户。这轮融资,与其说是看好 OpenAI,不如说是一门稳赚的生意。

而对 OpenAI 来说,这笔钱更像是 IPO 前的最后一次大补仓。

账面数据确实好看:每周活跃用户接近 9 亿,付费用户超过 5000 万,去年全年营收 131 亿美元,单月进账最高 20 亿,而且增速是当年谷歌、Meta 这些互联网巨头同阶段的四倍。

只是,OpenAI 还没盈利,烧钱的速度一点没降下来。

为什么要关掉 Sora

这次融资前后,OpenAI 的产品节奏并没有停滞不前。

他们发布了目前最强的 GPT-5.4,在多任务处理和工作流性能上都有明显提升。代码生成工具 Codex 也从一个功能升级成了独立的编程 Agent,目前每周活跃用户超过 200 万,过去三个月涨了五倍,月增速维持在 70% 左右。

企业端的表现同样值得关注。目前企业服务已经占到 OpenAI 总营收的 40% 以上,预计到 2026 年底会和消费者端打平。

API 每分钟处理的 token 数量超过 150 亿,搜索功能的使用量在过去一年接近翻了三倍,广告试点项目在上线不到六周内年化收入就突破了 1 亿美元。这也是 OpenAI 希望向外界传递的信号,收入来源越来越多元,ChatGPT 的订阅费用只是其中一块了。

然而,就在这一片飘红的数据旁边,Sora 悄悄地下线了。

Sora 刚发布时,确实在影视圈和创意行业引发了不小的震动。一句话生成视频,画面质感还挺真实,很多人觉得这是 AI 技术最让人兴奋的那种东西。

但视频生成的算力消耗,远比文字生成高得多。AI 的每一次推理、每一段文本生成、每一帧视频渲染,都在真实消耗着昂贵的 GPU 计算周期和电能。没有免费的智能,每一次调用都是真金白银的损耗。

而用户这边,虽然觉得好玩,却没多少人愿意为此付高价。

根据华尔街日报》报道,OpenAI 之所以选择关闭 Sora,原因之一也是因为它每天要烧掉约 100 万美元,可用户数量却从上线时的 100 万,暴跌到不足 50 万。

当留存数据难看,商业化路径又模糊不清,这笔烧钱的买卖,自然没有继续下去的理由。于是,现实还没被颠覆,Sora 就已经不存在了。

关掉 Sora 只是开始,OpenAI 还在审视其他花钱多、回报慢的方向,准备进一步收缩;把算力集中到文本模型、代码生成、企业服务这些有稳定现金流的方向,也是 OpenAI 在向华尔街表态:我们知道、也需要怎么赚钱了。

从「改变世界」到「水电煤」

OpenAI 成立于 2015 年,最初的愿景是确保通用人工智能造福全人类。

2019 年,为了筹到足够的研发资金,公司转型为「有限盈利」模式,成立了营利性子公司,接受了微软 10 亿美元的投资。运营主体虽然商业化了,但非营利性的 OpenAI 基金会仍持有约 26% 的股权,名义上延续着最初的公益使命。

OpenAI 融资的官方声明里有一句话值得注意:「构建智能本身的基础设施层」。

寥寥数语,其实道出了 OpenAI 自我定位的转变。以前他们更在意用一个个惊艳的 Demo 刷新外界对 AI 的认知,现在更想做的,是退到幕后,成为企业和个人离不开的底层工具。

他们把这个方向叫做「超级应用」,计划把 ChatGPT、Codex、搜索、浏览器等能力整合进一个统一的入口,主要面向开发者和企业用户,让人不用在一堆工具之间跳来跳去。

这背后的逻辑,是让消费者端的习惯自然带动企业端的采购,两块业务互相强化。

一个普通用户可能今天觉得新鲜、明天就取消订阅,但一家把核心业务跑在 OpenAI 模型上的企业,不太可能说断就断,后者才是华尔街真正想看到的那种客户黏性。

过去几年,AI 行业隔三差五就会出现让人眼前一亮的东西,新模型、新产品、新的可能性,一波接着一波。

但从这轮融资和 Sora 被关掉这件事来看,那个充满惊喜的阶段,可能真的要告一段落了。接下来可能更像是一门成熟的生意:有人管算力、有人管数据、有人管销售,大家各守一块,讲究成本控制,讲究商业落地。

OpenAI 已经回不到从前了,但它也许本来就没打算回去。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

🔲 ☆

Sora2关闭背后:AI视频社交失败

一张旧书桌上摊开的羊皮纸地图,中央写着“Sora2 App”被红色墨线划去,四周散落着手机、电影胶片、社交媒体图标小徽记和燃烧中的算力硬币,像一场平台战争的开场封面,羊皮纸,钢笔彩色手绘的统一风格。

Sora2 关闭,到底谁输了、谁赢了,很多人其实理解得并不深刻,而且大部分人都理解反了。

Sora2 宣布关闭,应该是 2026 年 3 月 24 日的事情。OpenAI 直接发了一条 X,我不知道是不是还发了其他公告,但我在 X 上看到了:我们要跟 Sora2 App 说再见了。

很多人就说,完蛋了,最早由 Sora 开始的 AI 视频生成赛道,现在别人都追上了,结果 OpenAI 自己玩飞了。到底是怎么回事,今天详细解说一下。大多数人的认知,我要告诉大家,全错

关于 Sora2 关闭,最常见的几种误读

四块钉在木板上的错误告示牌,分别写着“IPO 收缩战线”“好莱坞施压”“迪士尼授权白给”“10亿投资泡汤”,一只拿放大镜的手正逐条审视,像侦探拆解谣言,羊皮纸,钢笔彩色手绘的统一风格。

第一个认知是:OpenAI 在收缩战线,准备冲刺 IPO 了,OpenAI 宣布失败了,以后不玩视频了。这个理解是错的。

第二个认知是:OpenAI 顶不住好莱坞的压力,必须要关闭 Sora 了。这也是很多人的解读,但这正好反了,待会再讲为什么。

第三个认知是:迪士尼亏了,200 个授权白给了,这么多有价值的 IP 直接授权出去,最后没养活 Sora。这个也不能这么简单理解。

还有一个说法是:OpenAI 亏了,迪士尼的 10 亿美金投资泡汤了。这个也没有这么简单。咱们一项一项拆解。

OpenAI 关闭的到底是什么

一部标着“Sora2 App”的手机应用图标被轻轻放进关闭的抽屉里,而背景里“模型”“API”“视频生成引擎”仍在齿轮与管线中持续运转,强调只是关掉前台入口,羊皮纸,钢笔彩色手绘的统一风格。

首先要讲,为什么要关闭。OpenAI 为什么要做这件事?第一个要注意的是,它关闭的是 Sora2 的 App,就是这个应用关了。Sora 相关的模型、API 调用都还在服务,至少目前还在。以后是不是继续做下去,还要拭目以待。

关闭 Sora2 App,并不等于 OpenAI 退出了视频生成模型的战斗,只是换了一种打法而已。

Sora2 App 上面给普通用户大量免费额度,大家可以在 Sora2 App 上看到别人的视频,说我也生成一个吧。这个非常非常耗钱。而且还有聪明的中国小伙伴研究出了薅羊毛的方法。

为什么免费生成会变成一个巨大的成本黑洞

深夜的电脑屏幕前,一串自动化机器人手臂不断点击美国网站按钮,视频生成任务像纸卷一样疯狂吐出,另一侧的金币和算力芯片掉进无底黑洞,画面表现“薅羊毛”与成本失控,羊皮纸,钢笔彩色手绘的统一风格。

怎么薅羊毛呢?Sora2 除了有 App 之外,还有美国的网站。你必须把自己的 IP 地址设到美国,才可以用它的网站。通过前端注入的方法,也就是通过机器人模仿浏览器点击的过程,自动去生成视频,就可以薅它羊毛了。你可以把整个过程做成自动化。

很多国内看到的 AI 小漫剧,实际上都是拿这玩意做的。那 OpenAI 就亏死了,花了好多好多的钱,最后用户也没留下来。

OpenAI 当时做 Sora2 App 的目的,并不是说我的视频模型有多强。他们的目的是想做一个新的 TikTok。做 TikTok 的意义在哪?就是要让用户留下来互动,这才是做 TikTok 的意义,而不是说我的模型有多强就完了。

结果一帮中国聪明的小伙伴拿它的模型直接薅羊毛,做出视频以后发到 TikTok 上去了,给 TikTok 带来新的活跃和沉淀。那 OpenAI 不是亏死了吗?烧了很多算力和 token,最后没有给自己留下东西,反而给别人添砖加瓦了,所以必须把它关掉。

这一次关闭,并不是说版权或者 AI 视频生成这块出了问题。这一次的关闭,其实是 AI 视频社交媒体的尝试失败。大家一定要注意,不是视频模型失败,而是 AI 视频社交媒体的失败。

四家 AI 视频生成公司的不同打法

四条岔开的古旧道路通向不同方向,路牌分别写着 Google、OpenAI、xAI、ByteDance,每条路上各有不同工具与收费牌、社交图标和围栏,像一幅赛道对比总览图,羊皮纸,钢笔彩色手绘的统一风格。

现在有四家 AI 视频生成公司在这个赛道里,实际上都有尝试。它们的结果是什么样的呢?

1. 谷歌:最保守,基本什么都没干

第一个是最保守的,谷歌最保守。它做的是 Veo 3.1,除了 API 按秒计费之外,基本上啥都没干。它并没有给你免费额度,也没惦记让你去形成新的用户关注、形成新的用户互动。

YouTube 后台确实添加了相关功能的预告,但是具体怎么用,我现在也没看到。Gemini Pro 用户每天大概可以做两条还是三条,这个基本上都被我浪费了。每天两三条,处理起来实在太麻烦了。这就是谷歌,啥都没干。

2. OpenAI:最激进,但在社交层面失败了

第二个就是 OpenAI,它属于激进派。一边是 Sora API 按秒收费,大概一秒钟是十几二十美分的样子;另外一边,就是给了用户巨大的免费额度。你用它的 Sora App,或者用美国 IP 登录它的 Sora 网站,都可以免费生成视频。

免费生成视频以后,一定会面临巨大的成本压力和版权合规压力,但是它没有获得持续的用户互动和用户沉淀。虽然 Sora2 出来以后,一下就登到了美国苹果排行榜的第一名,几周时间弄到了一大堆用户,但这个没用。你要让这些人留下来继续玩下去,才有意义。

当时 Sora2 出来的时候,我们其实录过视频,当时就预言过这件事情:模型做得还是可以的,但是你要想做出 App 来,让大家像玩 TikTok 那样玩下去,那还要日久见人心。结果现在它就失败了。OpenAI 自己没得到好处,还被人薅了羊毛,所以必须关闭。

3. xAI:闷声发财的赢家

一座名为“X”的高台上,创作者把生成好的视频卷轴投向广场,台上的富豪剪影正举手点赞并转发,台下金币和观众掌声同时汇聚,突出“收费+社交沉淀”的赢家姿态,羊皮纸,钢笔彩色手绘的统一风格。

第三家叫闷声赢家,就是 xAI。它的 Grok Image 这个模型也是可以生成视频的。它在绘图和做视频上其实不算最强,但是限制最少。我不管你什么有 IP 没 IP,或者穿得多穿得少,你们只管做就完了。

它也没有让大家免费生成,都是通过 API 按秒计费,大概一秒钟可能比 OpenAI 还稍微贵一点,具体其实不重要。

为什么说它闷声发大财?就是你如果用 Grok Image 生成了视频以后,把它发到 X 平台上去,如果这个视频做得很好,就有机会获得埃隆·马斯克亲自点赞和转发。

其实在四家视频大模型里头,做得最好的就是 xAI,因为它完全没限制,或者限制已经非常非常少了。而且马斯克还给你点赞。钱赚着了,按每秒钟收费,社交互动和用户沉淀,X 平台也都接着了。当然,它的投入也很巨大。你说它投入什么?世界首富手动在那点赞转发,这个你不算成本吗?一个身价 8000 亿美金的世界首富给你点赞了,这多爽。

4. 字节跳动:模型强,但产品路线有点尴尬

第四家就是字节跳动,Seedance 2.0。他们属于稍微有点尴尬。为什么呢?模型做得非常好,但是它也想走 OpenAI 这条路,想抄一把。现在就有点尴尬了。

一方面,它现在按秒付费的 API 压根就没开。你说我现在想到火山云上去用它的 API,用不了。现在只可以通过即梦的网站或者 App,以及火山平台在网页端使用一些模板去生成视频。你现在再想上传什么素材,这一块基本上没法整,需要巨长的等待时间。你现在想生成一个视频,那就等吧,基本上等一天。

而且合规规则极其模糊,这是我特别讨厌的地方。你上传了一堆素材,说给我生成吧,它说对不起,你那个违规了。你问它怎么违规、怎么改正,它不告诉你,就是说你违规了。后来我说那你把规则文件给我,我自己去改进,它说不行,我们没有规则文件,你就是违规了。

另一方面,它也想学 OpenAI。即梦 App 走的就是 Sora2 的路线,用户可以免费生成,不用花钱。你如果在手机上,不管是安卓还是 iPhone,下载一个即梦 App,就可以照着人家已经生成好的模板,把自己的人脸录进去,就可以去生成了。

即梦 App 的结果其实跟 Sora2 差不多,也没有获得预期的用户互动和用户沉淀。但有一点比较好,就是它没有被薅羊毛。为什么呢?因为即梦的网站不可以免费生成视频,只有即梦 App 才可以免费生成视频。而 App 这个东西是没法薅羊毛的,你一旦有网站了,就可以通过很简单的前端注入手段去薅羊毛。因为视频生成这个事本身成本实在太高了,字节还是比较了解中国用户的,所以他们压根就没有开网站端的免费生成额度。

但是字节虽然在即梦 App 上没有赚到想要的互动,它也没亏大钱。因为什么呢?它手里还有 TikTok 和抖音。你做完的这些视频,虽然没有在即梦 App 里互动起来,但是到了 TikTok 和抖音里边去互动起来了。所以虽然有点尴尬,但总的不亏。

真正的问题不是模型,而是社交平台

一座冷清的新App小岛上几乎无人停留,创作者们划着小船把视频卷轴运往远处灯火通明的X、TikTok、抖音、YouTube Shorts大港口,港口里点赞与评论像烟火升起,羊皮纸,钢笔彩色手绘的统一风格。

所以,必须要有成熟的社交媒体平台,才可能让 AI 视频社交玩起来。想重新单做一个,肯定是不行。Sora2 就是惦记重新单做一个,即梦 App 也是惦记另起炉灶单做一个,都没戏。

只有像 X、抖音或者 TikTok 这样的平台,才有可能起步。其实谷歌也是有机会的,只是这位老大实在太稳重了,因为它手里还有 YouTube Shorts。

想要搞新 App、重新吸引用户的尝试,基本上都失败了。现在制作视频的成本实在太高,不管对于平台方还是用户方来说,制作成本都很高。所以你想靠新的应用去吸引用户,太难了,用户太少。

最后,用户做出了视频以后,发现在 Sora2 这个 App 里没有人给我点赞,没有人跟我互动;在即梦这个 App 里做出来的,也没人给我点赞、没人跟我互动。那我只能把视频下载下来,到 X、到抖音这些平台重新再发一次,才发现有人点赞、有人互动。

在这样的情况下,用户只能选择薅羊毛,生成的视频放到其他有人气的社交媒体平台上去发布。那么,被薅了羊毛、还没留住用户互动的 OpenAI,就只能选择止损了。

这就是 OpenAI 为什么在这时候把它关掉的核心原因:这条路走错了。不是视频生成走错了,而是形成独立的 AI 视频社交媒体这条路走错了。

Sora2 关闭,和版权诉讼到底是什么关系

有人说,Sora2 的关闭是不是跟版权合规诉讼有关系,别人都告它,它就只能关掉了?这个事要跟大家讲,正好理解反了。

为什么呢?版权诉讼跟 Sora 关闭肯定是有关系的,但这也就是一个成本。有人告我了,我慢慢拖几天,再去研究怎么处理这些内容就可以了。这个事本身是可以进行成本核算的。只要用户来了,我都愿意支付这个成本。这点成本,比它烧掉 token 的成本要少得多。就算所有告它的人我都认赔了,赔出去那点钱,都不够它烧 token 的。

迪士尼愿意去做授权,也是去尝试加入这个游戏的一个过程。没有版权 IP,你就没有互动,这个是必然的。你说我今天自己拍一个视频,怎么没有人点赞呢?原因很简单,因为市面上绝大部分都是陌生的普通人。

你们来看老范讲故事,有的可能看了好几年了,咱们不算陌生人了,但是我们看到大部分街上的人,实际上都是陌生人。而且普通人长得也没那么好看,那肯定没人互动。谁愿意为一个陌生普通人去点赞呢?

有了热门 IP,比如米老鼠、唐老鸭或者星球大战这些 IP,就可以极大提升互动,这没有任何问题。那 Sora2 拿到了迪士尼的授权,应该有互动啊,怎么还关了呢?

所以说,不是因为有人诉讼 OpenAI,导致它关闭 Sora2,而是因为迪士尼诉讼得不够狠,所以它要关闭 Sora2。

为什么说“迪士尼打得不够狠”反而让 OpenAI 更难受

一座写着“授权入口”的城门只给一家车队通行,但城墙另一侧却有多支未经许可的队伍翻墙而入,守城的法务骑士还在远处慢慢追赶,门内那家合法商队却因高昂补给而最先撑不住,羊皮纸,钢笔彩色手绘的统一风格。

这话怎么讲?大家去看看谷歌,再去看看 xAI,再去看看 Seedance,也就是字节跳动。大家都没拿着授权,但是都在肆无忌惮地生成迪士尼的各种 IP。

IP 这个东西要想值钱,你必须得能够把门关起来,别人不能用,只有你能用,这玩意才值钱。结果你折腾了半天,授权了半天,别人也在那用,那你说你折腾它干嘛?

你可能会说,迪士尼是不是有点太坏了,收了 OpenAI 的授权费,结果不出去好好打盗版?其实我们也冤枉了地表最强法务部。地表最强法务部有好几个,一个是迪士尼,一个是任天堂,都属于只要打官司没输过的那种。迪士尼其实也在打,它跟谷歌、字节跳动都在打。只是打官司这事很慢,不可能说今天上去,明天就判下来,这不现实。

但对于 OpenAI 来说,token 燃烧可是每天都在烧,而且每天烧的钱非常非常巨大,完全无法达到平衡,所以它等不起了。这就是为什么说正好反过来:迪士尼打盗版打得不够狠,所以导致唯一拿到授权的这家也玩不下去了。

迪士尼和 OpenAI 到底有没有亏

下一个问题,有人说迪士尼亏了,200 个 IP 授权出去,这么值钱的东西授权出去,打了水漂;还有人说 OpenAI 亏了,10 亿美金的投资泡汤了。这里头要稍微掰开了讲。

首先,这是一个正式协议,两边确实签协议了,要去做一个很复杂的交易,并不是一个简单的备忘录或者意向。因为迪士尼是上市公司,你要说我拿了个意向就出来胡说八道,是要罚款的。

但是,这个复杂交易本身的流程压根就没跑完。上面也写着说,我们要过董事会、过各种内部审批,它还没审完。去年 11 月份做的官宣,到 3 月份这个合同还没跑完,这边就发生了一些小变化。所以它这个合同压根就没有进行交割,也就是没付钱。

市场是怎么看这件事的呢?去年官宣的时候,迪士尼股价两天涨了 2.55%,确实也涨了,但涨得也没那么多。在 OpenAI 宣布 Sora2 关闭后的两天,迪士尼股价下跌了 2.04%。反正我们知道有关系,但关系可能也没那么大。

这份协议里都有什么内容

这个合同要稍微掰开讲一讲,它分很多条款。


  1. 一方面,迪士尼向 OpenAI 进行了 200 多项 IP 的授权。Sora2 虽然挂了,但是这个授权可能依然在部分领域里有效。比如说我们在 OpenAI 生成视频、生成图片,或者使用 Sora 的 API 去生成视频的时候,可能依然可以用这些东西。未来这个协议怎么调整,变成什么样的授权范围,还要再等等,没这么快。

  2. 第二个,迪士尼可以在迪士尼自己的场景里展示 Sora2 生成的影片。这块肯定没有意义了。

  3. 第三个,迪士尼要采购 OpenAI 的服务,包括视频生成以及各种办公使用的 API 服务。其实采购不重要,这个条款里最重要的是一年优先采购权。什么叫一年优先采购权?就是在我们宣布合作签协议以后,这一年里,我要优先买 OpenAI 的服务,我不能在这个时候再去买谷歌的、买 Anthropic 的服务。过完一年以后,我们还可以再做选择,就属于捆死一年。这块应该还在继续执行。OpenAI 的服务也不差,可能跟 Anthropic 比起来各有千秋,所以你选它也不算吃亏。

  4. 第四个,是迪士尼要投资 10 亿美金,去购买 OpenAI 增发的股权,并且获得一定数量的 warrant。这一块非常模糊。什么是 warrant?就是认购权,以后可以再用一个什么样的价格买多少股份,这叫 warrant。

为什么 10 亿美元投资未必泡汤

一份摊开的复杂合同上压着羽毛笔和放大镜,旁边是“10亿美元”“估值”“warrant”“优先采购权”等标签卡片,几枚筹码正被推向未来日期的格子,表现交易尚未交割而非彻底作废,羊皮纸,钢笔彩色手绘的统一风格。

但这一块模糊在哪呢?第一,没估值。我只告诉你我要给 10 亿美金,但是到底按什么样的估值给这 10 亿美金,没说。所以你也不知道这 10 亿美金到底占多少股份。大家知道,OpenAI 的估值涨得非常快。

如果我是迪士尼的老大,现在一定会按住 OpenAI 说,不许动,我们就按当时谈的那个估值接着做下去。现在 OpenAI 的估值已经跟当时谈合作的那个估值比起来,好像又翻了一番了。你只要把当时的估值咬死,就已经挣出一倍的钱来了,10 亿就变 20 亿了。

这个条款并没有规定交割的时间和条件,也就是满足什么样的条件时我来付这笔钱,到多长时间之内付这笔钱,都没有说清楚。warrant 的细节也没说清。一般 warrant 会规定多长时间之内有效、在什么条件下有效、多少额度、按照什么样的估值来入股,现在都没说出来。

所以,这些条款未必会废掉。因为我刚才讲了,以 OpenAI 估值上升的速度,已经赚了。你现在把它废掉了,反而亏了。

这份协议为什么像“寅吃卯粮”和“一鱼两吃”

还有一些没有暴露出来的条款,那才是真正最有意思的。很多人看这个协议,其实没看明白。为什么呢?这个其实是一个 寅吃卯粮加上一鱼两吃 的合同。

咱们解释一下为什么。迪士尼本来就要用 OpenAI 的服务,那你本来应该花钱买,而且必须马上花这个钱。你花的钱还要计入成本。现在,同样这笔钱,我可以慢慢支付,不用马上支付。这个协议里最后我把钱付了就完了,但它变成了 OpenAI 的股份。我不是把它作为一个成本直接消耗掉了,而是变成股权了。

它是这样运作的:马上支付的订阅费变成了投资款,逐步支付,这就叫寅吃卯粮;本来应该计入成本的钱变成了股权投资,我得到了我心仪的估值,还得到了认购权证的权利,这就叫一鱼两吃。

我们以前做投资的时候,其实也经常干这种事。我们经常去投资媒体。一个基金或者一个公司的投资部门,为什么去投资一个媒体?也不指望它上市,或者退出给我挣钱。

其实很简单,就是我们正常应该找他们付费,比如参加活动、举办年会、做广告,这些原来都是要有支出的。但是基金这种东西,如果走这条路,比如在某一个媒体上打了个广告,那这个钱就应该走管理费。比如说募了多少钱的基金,我就有 2% 的管理费,那我就要把这个 2% 管理费花掉,这肯定不划算。

怎么办呢?我直接投资你,我就用投资你的钱去打广告,就算我已经付过了。这个媒体也是愿意的,因为有人投资它了,毕竟钱到手了。至于说这个股份怎么样,反正它也没惦记上市,大家一笔糊涂账就做过去了。对于基金来说,也不用花管理费,而是直接花投资款把这个事干了。

所以迪士尼在这点上肯定是不亏的。它继续执行这个交易,只需要把条款稍微改一改,把这个交易执行下去,就已经赚到了。

200 多个 IP 授权到底是不是打水漂了

一条热闹的老式餐饮街上,大饭店与流动餐车对峙,饭店招牌写着“好莱坞IP”,小餐车写着“AI视频生成”,法务检查员在街口巡查,后厨大门半开,象征小摊最终被吸纳进大饭店体系,羊皮纸,钢笔彩色手绘的统一风格。

那么,迪士尼这 200 多个 IP 的授权是不是彻底亏掉了呢?这事也不亏。

讲一个故事,方便大家理解。本来有一群小摊贩在卖吃的,后来大家经过激烈竞争,形成了一条饮食街,都变成了大饭店,这就是现在的好莱坞状态。一开始实际上也都是小作坊,竞争了一段时间,我们已经形成一定壁垒了。

这个时候又来了一帮小摊贩,他们推着餐车卖快餐,而且卖得挺好,这就是现在这些 AI 视频生成公司,像谷歌、OpenAI、xAI。

餐饮街上那些大饭店的生意肯定就变差了,因为大家都跑去吃这些新的摊贩了,不去大饭店了。那这个时候,街上的大饭店就要联合起来,搞点卫生检查、市容市貌检查,去收拾这些小饭店,这实际上就是版权诉讼。

光脚的泥腿子上了岸以后,最需要做的事,就是防止别人再上来。你想,好莱坞这帮人一开始其实也是光脚的,只是形成了竞争壁垒以后,你要有新人进来,比如 OpenAI 想进来,那我要收拾你。

经过一定的诉讼以后,可能把一部分小商贩赶走了。这些小商贩怎么办?你也不能让人饿死。那就算了,你上大饭店的后厨里边,提供卫生、昂贵的快餐吧。比如原来做热狗的,你上我们这大饭店里接着做。这个其实就是迪士尼这帮人真正想要的事情。

你看,我给你提供标准食材,比如 200 个 IP。OpenAI 竞争不过别人,还净亏钱,而且越亏越多,那干脆你别在外边摆摊了,把这个 Sora2 App 直接关了吧。外边那些穷鬼没有办法支撑你的成本,因为他们净薅你的羊毛。你到我后厨干吧。迪士尼继续用 Sora 的 API,改进视频生成流程,降低成本。那咱们做高档的快餐给有钱人吃。

所以后边会变成什么?就是 迪士尼用 OpenAI 的工具生成电影,行销全球,这才是真正的未来方向。

未来的行业走向会是什么

那未来会怎么样呢?

  • xAI 的 Grok 和 Seedance 应该还会继续撕扯 IP 版权的围墙。这两家其实都没有那么尊重 IP。
  • 谷歌不会屈服。谷歌其实也是在偷偷使用迪士尼的 IP、各种好莱坞的 IP,只是它没那么激进。老人家嘛,一定要稳,但稳的同时,也没有那么要脸,该用的东西还是用着。
  • TikTok、抖音、Instagram、YouTube Shorts 上,大量的 AI 视频或者 AI 漫剧会快速爆发。

但我要告诉你,这是两回事,不是合在一起的。为什么一定要讲清楚是两边的?因为你的 AI 大模型生成了有版权的内容,这个事肯定是违法的,你可以去告它;但是你说我这个平台上有一些违反版权的内容,这个你就可以引用避风港原则,我可以逃过去。所以一定要稍微藏着掖着一点。

社交媒体平台会通过这些 AI 内容得到收益,这些社交媒体平台现在也在努力进行流量倾斜,去推这些 AI 漫剧或者 AI 仿真人剧。原因很简单,因为搁在我这,我不需要有版权顾虑,我有避风港原则。

同时,谷歌后面有自己的视频模型,X 后面有自己的视频模型,TikTok 和抖音后面也有自己的视频模型。它是通过这样的方式拉偏架,通过社交媒体平台逐渐撕开好莱坞的 IP 壁垒。

最后版权方会妥协,大家重新去寻找合作契机,或者各自的位置。很多人说,版权方为什么要妥协?在我这里听节目的人,还有很多正义感很强的朋友。这个没问题,但版权方也不是道德卫士,版权方也是挣钱的。

看看音乐行业。最早 TikTok 出来的时候,音乐行业这些唱片公司也想把它弄死。现在你再看看,你做一张新唱片,发一个新歌,你不在 TikTok 上发布,你想火,别开玩笑了,这不可能。所以最终大家会重新寻找自己的位置,达成新的协作。这就是未来方向。

总结:Sora2 App 关闭,不代表 OpenAI 输了

天平一侧是关闭的“Sora2 App”图标,另一侧是仍在发光的“模型”“API”“社交平台流量”“版权合作”四枚砝码,背景中用户脚印正从影院走向短视频平台,寓意真正决定方向的是用户选择,羊皮纸,钢笔彩色手绘的统一风格。

总结一下,OpenAI 关闭了 Sora2 App,这只是创新过程中的一个小小插曲。OpenAI 和迪士尼都没亏,大家只是在尝试寻找更适合自己的协作方式而已。

AI 视频现在正在积蓄力量,AI 漫剧、AI 仿真剧正在快速占领社交媒体平台的流量。X、谷歌、字节都在努力用自己家的社交媒体流量养自己家的模型。版权方、社交媒体平台和 AI 大模型,应该很快就会重新达成平衡。

而在这个达成平衡的过程中,真正发生变化的是什么?是 用户拿脚投票。我们不去电影院看电影,不在迪士尼平台上看他们家的电视剧,我们在抖音、在 YouTube Shorts 上看 AI 漫剧。只要大家用脚投票了,最后这个平衡就会重新形成。

好,这就是今天讲的故事。感谢大家收听。请帮忙点赞、点小铃铛、参加 Discord 讨论群,也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。


背景图片

🔲 ☆

OpenAI扩招3500人背后的危机与豪赌

一间昏黄灯光下的现代办公室与交易大厅交叠的场景,墙上巨大的“8000”招聘目标数字牌,前景是一叠写着 OpenAI 的扩张计划文件,背景隐约可见悬崖边上的公司总部轮廓与风暴云层,羊皮纸,钢笔彩色手绘的统一风格。

OpenAI突然宣布要扩大规模,今年新增3500人,员工总数接近翻倍,达到8000人。这会不会是最后的疯狂?

OpenAI为何突然大扩张?

一张战情室长桌俯视图,桌上摊着写有 Gemini、Anthropic、OpenAI 的对比图表,红色警报灯亮起,两次被圈出的预警时间点格外醒目,几位高管神情紧张地围坐讨论,羊皮纸,钢笔彩色手绘的统一风格。

OpenAI最近其实拉响过一次内部红色警报,而且不是一次,是两次。第一次是去年谷歌发布 Gemini 3 的时候。OpenAI之所以会为谷歌拉响红色警报,是因为它被追上了,而且是被谷歌这个“老大”追上了。

某种意义上,OpenAI从一开始就带着反谷歌的意味而生,所以为谷歌拉警报,不算太丢人。

另外一次红色警报,则是今年来自 Anthropic 的压力。这次没有对外官宣,但事实就是 OpenAI 面临了巨大的挑战。不同的是,OpenAI这次的应对方式不是收缩,而是扩充团队,这是一个非常不一样的选择。

为什么不愿意承认是 Anthropic 带来的压力?因为谷歌是大公司,OpenAI为谷歌拉红色警报不丢人;但 Anthropic 在很多人看来更像是从 OpenAI 内部出去另立山头的一支队伍。如果 OpenAI公开承认被 Anthropic 压制,品牌价值损失太大,不划算。所以它会做很多动作去应对,但绝对不会承认 Anthropic 给自己带来了压力。

Anthropic如何触发OpenAI的红色警报?

1. 军工与政府场景带来的关注度飙升

 沙盘地图与军用指挥屏幕并置的画面,技术人员在美军风格控制室里操作带有 Anthropic 标识的模型界面,屏幕上显示中东区域与任务路径,全场目光集中在一套 AI 军事情报系统上,羊皮纸,钢笔彩色手绘的统一风格。

Anthropic 这次红色警报是怎么来的?首先,Palantir 其实一直在用 Anthropic 的模型,只是以前不太说,大家也没那么关注。最近特朗普动作很多,又是抓马杜罗,又是炸伊朗,背后实际上都有 Anthropic 在干活。

这一下吸引了全世界的目光,大家会觉得,美军都验证过了,这玩意确实好用。

2. Dario Amodei与国防部长公开冲突

第二个原因,是 Dario Amodei 和国防部长 Hegseth 公开发生冲突。Hegseth 的意思是,只要合法,你都得让我用,不能由你自己建立一套规则,决定哪些地方让我用,哪些地方不让我用。

Dario Amodei 作为 Anthropic CEO,则强硬回应,说有些条件下就是不给你用,这是原则问题。到目前为止,这件事其实并没有给 Anthropic 带来实质性的巨大损害。虽然特朗普方面说要处罚,联邦政府内部不能用,国防部甚至表示你会成为不可信任供应商,任何想跟国防部做生意的人都不能使用 Anthropic 的产品,还要出具证明,但这些目前更多还停留在口头层面,并没有真正落地。

而且在战争状态下,你几乎不可能更换底层模型。就像以前北京奥运会期间,银行和电信公司都要“封版本”,在那段时间里版本不能更新,因为哪怕发现再大的 bug,也不如不更新更安全。一旦更新带来新的问题,责任根本承担不起。所以在重大事项进行中的时候,是不会随便换底层系统的。

也就是说,Anthropic 目前大概率还在继续干活,经济上并没有受到明显损失,反而因为敢硬顶政府,名声大噪。一方面说明产品好用,另一方面也让很多人觉得它有骨气、立场鲜明,这的确给 Anthropic 带来了很多用户。

3. 超级碗广告战与商业模式之争

超级碗赛场外巨大的广告牌对峙,一侧是炫目的 OpenAI 广告屏,另一侧是更克制的 Anthropic 宣传语,观众人群分流讨论,前景里广告主和普通用户都露出犹疑神情,羊皮纸,钢笔彩色手绘的统一风格。

第三个刺激 OpenAI 的点,是 Dario Amodei 在超级碗上打广告,公开嘲笑 OpenAI 的广告策略。这对 OpenAI 也是一次不小的打击。

OpenAI选择了广告模式,而 Anthropic 说自己不做广告,只老老实实收服务费。广告本身并没有直接给 OpenAI 带来太大损失,真正的问题是不信任,而且是双重不信任。

  • 第一重不信任来自用户:我用了你的 OpenAI 产品,你后面是不是有广告在影响回答?是不是因为有人花了钱,你就告诉我谁家东西更好?这种信任损失非常大。
  • 第二重不信任来自广告主:OpenAI 的广告效果并不好。做广告的人花钱买位置,是希望把货卖掉、把交易实现,但 OpenAI 目前卖出去的广告很难证明效果,没法清楚归因销售变化到底和广告有什么关系。

毕竟还是新手,整个广告归因体系不够成熟,而且这中间还有 Facebook 和谷歌这两个老玩家,他们会做各种广告归因劫持,尤其 Facebook 在这方面做得非常狠。你在 Facebook、OpenAI 和谷歌都投了广告,东西卖掉以后,到底是谁卖出去的,很难说清楚。

更麻烦的是,OpenAI自己在广告这件事上也有点三心二意,一边想做,一边又想向付费用户证明自己没有影响回答,所以在这一块并不坚决,推进起来很费劲。

Claude Code为何让OpenAI更焦虑?

一张未来感开发工作台近景,多个终端窗口自动生成代码、部署任务与调用模型,屏幕上“Claude Code”“Harness”“Codex”三个标签彼此交错,程序员只是站在一旁观察系统自主运转,羊皮纸,钢笔彩色手绘的统一风格。

再往下看,就是 Claude Code。很多人以为 OpenAI 感受到压力,是因为 Claude Code 编程特别强,Codex 编程不够强,所以 OpenAI 要奋起直追。但实际上,这件事已经不只是编程问题了。

现在很多人都不再把它单纯叫“编程”,而是叫 Harness。现在进入的是 Harness Agent 时代:你向它提出任何要求,它自动编程、自动解决问题。确定性问题就直接通过编程处理,非确定性问题再到后台调模型,它是一个新的框架。

像 Claude Code、OpenCode,以及国内在推的一些相关产品,本质上都属于 Harness。这一轮时代,确实是 Anthropic 的 Claude Code 开创的。

Claude Code对SaaS行业的冲击

更进一步,Claude Code 还带来了软件 SaaS 股的崩盘。原因很简单:它确实让很多软件公司收不到那么多订阅费了。以前大家还在怀疑这类产品到底有没有用,现在你一用 Claude Code,那边 SaaS 股就开始跌,市场等于用股价证明了它有用。

甚至在软件股暴跌之后,还有可能冲击私募信贷市场。所谓私募信贷市场,就是投行会募集资金,去帮助这些 SaaS 公司融资。过去这些公司虽然没有特别宏大的故事,不是那种几天翻几倍的项目,但它们通常能稳定地以两位数百分比增长,而且非常稳,所以大家愿意借钱给它们。

现在这个逻辑开始失效了,就像房价崩了以后,房贷、装修等一系列链条都会出问题一样。某种程度上,Anthropic要背这个锅:它把整个 SaaS 市场和私募信贷市场的逻辑都打崩了,也因此反向证明了它非常厉害。

市场数据也在偏向Anthropic

在 OpenAI 和“龙虾”这边,目前最好用的模型是 Claude Opus 4.6,这也给 OpenAI带来了很大压力。还有一家信用卡机构做了统计,说新用户首次订阅商业 AI 套餐时,70% 订的是 Anthropic,Anthropic 的订阅量是 OpenAI 的 3 倍。

当然,OpenAI不会认这个结论,它会说这不过是一个很片面的统计,不足以说明全貌。OpenAI也会强调,自己的整体用户量还是更大,真正的大企业客户也不会用信用卡付费,能用信用卡付费的通常都是中小企业。

这些因素加在一起,就构成了 Anthropic 带来的这一轮红色警报。现在的 OpenAI,可以说已经站在悬崖边上了。

OpenAI当前面临的几大危机

法庭、云计算合同和停建中的数据中心被拼接在同一画面里,桌面摆着写有“1340亿”“AWS”“Microsoft”“Stargate”的卷宗和协议,远处未完工机房上方乌云密布,羊皮纸,钢笔彩色手绘的统一风格。

马斯克诉讼影响上市前景

一方面,马斯克的诉讼这个月要开庭。马斯克一直在告 OpenAI,说自己当年投资的是非营利机构,结果后来被排除出去,而 OpenAI又把非营利机构变成了公司,这里面有问题。

要么还钱,要么按照现在公司规模增长后的价值,把当年的权益还回来。马斯克现在准备索赔 1340 亿美元。这个数字未必真的会被判下来,因为按照美国法律体系,这种官司往往会被拉得很长,但只要这个案子一直打下去,就一定会影响 OpenAI上市。你头上挂着一个 1340 亿美元标的的官司,怎么上市?

亚马逊投资可能引发微软起诉

另一方面,是亚马逊 500 亿美元的投资。这个投资本质上是亚马逊和 OpenAI 做的云合作,其中带有一些附加条款,比如允许 OpenAI 的一些 API 和服务直接在 AWS 上对外提供。这很可能违反了 OpenAI 当年和微软签的协议,所以微软现在考虑起诉。

你会说律师怎么会这么不小心?其实很多时候不是不小心,而是没办法。钱必须拿到,站着拿不到,就只能跪着拿。OpenAI现在只能干这种事:先把协议签下来,把钱拿到手,后面再慢慢协调。

这也从侧面说明,OpenAI 已经缺钱缺得很厉害了。正常情况下,应该是先去跟微软谈,达成谅解后,再和亚马逊谈,最后三方一起签协议,而不是先把亚马逊的协议签了,再回头跟微软解释。通常不会这么干,只有特别着急的时候才会这么干。

要注意的是,之前 OpenAI 和 Oracle 的合作,微软之所以无所谓,是因为那只是算力补充,没有触碰微软协议的核心利益。但这一次亚马逊直接碰到了微软的底线。

Stargate收缩,说明资金压力加大

OpenAI自己也在收缩。最初 Sam Altman 讲的是 1.3 万亿美元级别的投资计划,要去买算力,要和 Oracle 一起建设 Stargate。但现在,Stargate 先不做了,不再自己建那么多算力中心,而是四处买:向 Oracle 买一点,向亚马逊买一点,向微软继续买一点。

原来 1.3 万亿美元的计划,也缩到了 6000 多亿美元。Oracle 之前按这个计划招了很多人去建数据中心,结果后来计划变化,导致 Oracle 大概进行了 2 万到 3 万人的裁员。

OpenAI失去“绝对领先”光环了吗?

现在 OpenAI 的势头,已经没有 GPT-3.5、GPT-4、GPT-4o 那个时期那么猛了。当时大家都追不上它,也不知道它是怎么做出这样一个神奇产品的。现在这种光环已经褪去了。

谷歌做出来了,Anthropic 做出来了,甚至做得还更好;国内模型虽然未必更强,但也基本到了能用的程度。所以 OpenAI 既失去了那种一骑绝尘的势头,也被祛魅了。

更麻烦的是,它“老大”的位置被反复质疑。在任何赛道里,老大不仅收入更高,而且一定享受估值溢价。

假设两家都卖冰激凌,老大一年卖 1 万个,老二一年卖 5000 个,老大的估值通常不会只是老二的两倍,而可能是三倍、五倍,因为老大是规则制定者。但一旦跌出老大位置,不再是规则制定者,这部分估值溢价就会被退回来。

而对于 OpenAI 这样高估值的公司来说,这几乎是无法接受的。去年 Gemini 3 动摇了一次它的老大位置,今年 Anthropic 又动摇了一次,所以说是两次红色警报。

为什么OpenAI必须上市?

一家公司站在悬崖边准备跨向“IPO”桥梁的象征性场景,桥面由融资协议、对赌条款和股票期权拼成,桥下是深谷,几位投资方代表在对岸等待签字,羊皮纸,钢笔彩色手绘的统一风格。

而且 OpenAI 现在必须上市。不上市的话,很多协议都会出问题。它拿到的很多钱,都是附带上市要求的,规定你必须在一定期限内上市,否则后续资金不给,甚至前面的钱也可能带有对赌赔偿。

2024 年底那一轮融资时,对赌重点还是要求它解决非营利机构问题。现在这件事已经解决了,当时和它签对赌协议的软银也把钱给了。这一次像亚马逊等签的对赌,核心则是“你必须上市”。如果不上,后面的钱不给,甚至前面的钱也可能出问题。所以它真的是被逼到了悬崖边上。

通常站在悬崖边上的公司,会选择裁员、收缩战线、集中兵力。但 OpenAI 这次偏偏选择招人,这确实算是一种行为艺术。

OpenAI大举招人,到底想干什么?

先看纯AI公司的人员规模

一面招聘作战墙前,贴着 OpenAI、Anthropic、xAI、MiniMax、Moonshot、GLM 的员工规模卡片,OpenAI 的数字牌从 4500 翻到 8000,招聘人员与工程师头像密密排开,形成压倒性的数量对比,羊皮纸,钢笔彩色手绘的统一风格。

那 OpenAI 到底想干什么?先看一下各家纯 AI 公司的员工规模,才更容易理解 OpenAI 这次扩张有多激进。

  • OpenAI 现在大约 4500 人,准备再招 3500 人,达到 8000 人。
  • Anthropic 有 1097 人,这个数字他们会定期公布,所以比较精确。
  • xAI 大约 1200 人,但其中还包括很多原来 X,也就是 Twitter 的人,所以真正属于 xAI 的可能也就几百人。
  • MiniMax 大约 385 人。
  • Moonshot 也就是月之暗面大约 500 人。
  • GLM 智谱大约 600 到 700 人。

谷歌没法直接比,因为它业务太杂。只看纯 AI 公司,OpenAI 现在已经是人数最多的。到了 8000 人以后,它的人数大约会是 Anthropic 的 8 倍,这可以做很多事情。

智谱的扩张教训

不过这里也有一个不太好的案例,就是智谱。智谱在 2022 年到 2024 年期间快速扩张,从 196 人涨到 647 人,最高峰时上千人。但到了 2024 年就顶不住了,开始大裁员,到 2025 年 10 月份最后一轮又裁了 100 人,然后才去上市。

智谱为什么会先大招人,后面又裁?因为它一度判断,基础模型先别做了,直接扑到用户前面去服务政府、医院等客户。只要你要去做这种贴身服务,就必然要招很多一线交付人员。后来发现不行,模型太弱,大模型能力必须补上,于是又把外面那些人裁掉了。

OpenAI押注的“王牌”是什么?

一张铺开的纸牌桌中央,一张标着 Operator 的王牌被翻开,周围散落着 ChatGPT、Codex、Atlas 的设计草图与产品流程图,远处一位产品负责人正把这些卡牌拼成一部统一的超级应用蓝图,羊皮纸,钢笔彩色手绘的统一风格。

那 OpenAI 这次招人,是不是有点像智谱?某种程度上有点像,但逻辑又不完全一样。OpenAI 的判断是:自己已经摸到王牌了。就像打牌一样,王牌已经在手里了,这张牌就是 Operator

它已经把 Peter Welinder 这样的重要人物招到手里,剩下的问题只是来不来得及把这张牌打出去。新的官方版 Operator 应该已经在路上了。

官方版Operator的可能形态

所谓新的官方 Operator,可以类比浏览器行业。Chromium 是开源底座,微软基于它做 Edge,很多国内厂商也基于它做浏览器,而用户最常用的官方版本叫 Chrome,是谷歌基于 Chromium 做出来的。

OpenAI 收了 Peter 之后,也很可能会做一个“官方版”的 Operator:底层可能是开放架构,但官方还会有自己的产品形态和名字。这个名字现在不确定,但形态应该已经很明确了,就是把 ChatGPT 和 Codex 合并成一个新的超级 App,甚至有可能把他们原来做浏览器的 Atlas 也一起合并进去。

为什么这张牌很关键?

为什么说这是王牌?还是回到浏览器的例子。谷歌掌握 Chromium,再做出 Chrome 以后,全世界浏览器内核最后几乎只剩三家:Chromium、Firefox 和 Safari。Firefox 还能活着,很大程度上也离不开谷歌资助;Safari 背后也有自己的 WebKit,但谷歌同样通过广告等方式间接影响整个生态。

也就是说,现在浏览器行业的核心格局,其实是围绕谷歌形成的。OpenAI觉得自己拿到的,可能就是未来 AI Agent 领域里类似 Chromium/Chrome 的那种牌。

OpenAI与Anthropic,未来可能像安卓和iPhone

所以 OpenAI 现在必须往前冲。你可以说,等它把这个超级 App,也就是 ChatGPT 加 Codex,甚至加上 Atlas 做出来以后,就一定能打败 Claude Code 吗?不一定。从产品角度看,Claude 现在这块可能还是最好用的。

所以未来的竞争态势,很可能是 Anthropic 像 iPhone,OpenAI 像安卓。安卓的数量可以比 iPhone 多很多倍,但最好的手机、最赚钱的手机依然可能是 iPhone。未来 AI 产品,也许会形成类似的格局。

合并ChatGPT和Codex的最大价值

那 OpenAI 把 ChatGPT 和 Codex 合起来,到底有什么好处?最大的好处是打价格战。不是说绝对价格更低,而是在相同价格下给更多额度。

比如双方都是 20 美元一个月,高配版都是 200 美元一个月,但 OpenAI 可以给你更多用量、更少限制。Anthropic 给的额度少,限制又严;OpenAI 则可能会更开放,欢迎大家在自己的应用里用,也欢迎大家接入各种环境里去用。

这个逻辑非常像当年的安卓和 iPhone:苹果不会说我开放出来给你们用,安卓则会说没事,大家都拿去用。所以 OpenAI 很可能会走开放加价格战的路线,像当年谷歌用安卓对抗苹果一样去跟 Anthropic 竞争。

这3500人将被用在哪里?

分屏式场景,一边是工程师走入政府机构和企业机房做驻场交付,另一边是大型开发者社区活动现场,讲台、海报、手册和志愿者团队忙碌运转,形成“贴身服务+生态运营”的双线布局,羊皮纸,钢笔彩色手绘的统一风格。

那既然路线已经清楚了,为什么还要从 4500 人扩到 8000 人?这些人是干什么的?

因为现在大模型本身再升级,普通用户已经没那么容易感知差异了。你多招一个博士、多招一个顶级研究员,对大众体验未必会有决定性变化。接下来真正重要的是把 Harness 做好,把服务铺下去,做更多贴身服务。

方向一:学微软和Palantir做贴身交付

在这一点上,有失败案例,也有成功案例。智谱属于某种失败案例;成功案例则是微软和 Palantir。

Anthropic 和亚马逊更偏向自助服务:文档写好,你自己来,找不到就看手册、去社区问。亚马逊云一直就是这个逻辑。而微软云则完全不同,微软会派人下去,你不会用没关系,我帮你写,我给你做贴身服务。

Palantir 也是类似思路。Anthropic 自己不做这件事,但 Palantir 会派大量工程师到美军各个哨所里做贴身支持。OpenAI现在的思路就是:既然模型竞争阶段差不多告一段落了,那我也派人下去,到各个机构里面做贴身服务,去学微软、学 Palantir。

方向二:学谷歌做社区和生态

另外一个方向,是学谷歌做社区。谷歌本身也是偏自助服务,但它非常重视社区组织,会招很多人去运营社区、准备物料、组织活动。比如开一个技术会,讲义、提纲、活动组织都需要专门的人来做。

OpenAI 既然已经把 Peter 这样开源社区精神领袖式的人物招进来了,那自然也会学谷歌,再招一批人去做社区运营、组织活动、推动生态。

所以这 3500 人,核心去向就是两块:

  • 一块是学微软和 Palantir,招工程师做贴身交付;
  • 另一块是学谷歌,招人做社区和生态运营。

为什么现在是OpenAI最适合招人的时机?

还有一个非常现实的原因:现在也是 OpenAI 最适合招人的时候。因为马上要上市了,今年招人最便宜,可以用即将上市的股票来支付薪酬。

而且现在招来的人,未必是为了让他们亲自做出多少突破性研发,更重要的是这些人自带资源:技术人脉、行业客户关系、政府监管资源。OpenAI 现在毕竟还是赛道里的头部公司,它还有能力把这些人筛出来、吸引进来。只要把这些人聚起来,它的产品就更容易卖出去。

尤其政府客户,从来不是靠自助服务拿下来的,他们更愿意签那种有人一路服务到面前的单子。OpenAI 现在走的,就是这样一条路。

这有点像保险公司招人:先把一批人招进来,再让他们把亲戚朋友那一圈都覆盖掉。OpenAI 现在某种程度上也是类似战略。

未来走势:OpenAI能否赌赢这一把?

未来怎么发展?第一,亚马逊、微软和 OpenAI 之间,大概率还是能谈拢,不太可能真的走到全面诉讼那一步。原因很简单,不管是微软还是亚马逊,都不希望 OpenAI 死,都希望它能顺利上市,继续往前走。

前面没说明白的部分,后面可以慢慢谈。实在上不了市,微软甚至还惦记着收购 OpenAI,所以一般不会把它往死里整。

马斯克诉讼更难处理

至于马斯克的诉讼,就很难善了了。这部分只能做损害控制,尽量把影响限制在局部,不要冲击整个上市进程。

h3>关键变量仍是模型层是否再出现革命性突破

如果模型层面的竞争,接下来没有新的革命性进步,那 OpenAI 这一轮很可能就能扛过去。只要把用户服务好,就有机会过关。

但如果 Anthropic、谷歌,或者 xAI 又突然拿出了划时代的新模型,那 OpenAI 可能就会很危险,甚至有可能像智谱那样,再把现在招的人重新裁掉。不过从目前看,大家普遍判断模型再发生一次划时代跃迁已经比较难了,下一步重点就是把现有能力真正用好。

接下来可能出现哪些变化?

所以接下来,我们很可能会看到 OpenAI 推出新的应用、新的套餐。价格未必会降,但额度一定会更多。现在 Codex 的额度已经在翻倍,一旦 Codex 和 ChatGPT 合并,额度还会进一步扩大。

未来除了中国地区之外,可能会在 OpenAI 这种贴身服务模式下迎来一轮生产力快速增长。因为它本来也不向中国开放,也不可能到中国来做现场服务。

但中国也不必太担心,只要使用开源方案,比如 OpenCode 这类框架,再挂自家模型,也一样能跑。虽然没有它原生方案那么好用,但也不会落后太远。就像美国有 Chrome 和安卓,中国也有自己的浏览器、鸿蒙和 MIUI,虽然不是原汁原味,但照样能用。

结论:这是一场被逼出来的豪赌

最后一幕是赌桌与产品发布会舞台融合的场景,OpenAI 将写着“落地”“服务”“Operator”的筹码全部推向中央,对面坐着 Anthropic、Google、xAI 的象征身影,远处时钟指向 2026 年底,气氛紧绷,羊皮纸,钢笔彩色手绘的统一风格。

最终结论是,OpenAI 这波扩张,确实是被逼急了,有点梭哈的感觉。它赌的是:大模型本身的竞争已经基本告一段落,接下来拼的是落地

而现在大家觉得,它是有可能赌赢的,因为它手里已经摸到了一张王牌,就是 OpenCode。

到底能不能成,2026 年年底见分晓。第一,看它能不能顺利上市;第二,看大模型领域还会不会有人拿出新的划时代产品。

以现在谷歌、Anthropic、OpenAI 和 xAI 的状态来看,可能性已经不大了。真有可能拿出下一代产品的,反而可能是李飞飞、杨立昆这些在做世界模型方向的人。如果真是杨立昆拿出来了,那对 OpenAI 来说,可能又会是一次大麻烦。


背景图片

🔲 ☆

OpenAI 创始人盛赞 Rust,却遭开发者反驳:Go 才是大模型眼里的“香饽饽”!

本文永久链接 – https://tonybai.com/2026/03/23/go-is-the-best-programming-language-for-llm

大家好,我是Tony Bai。

在这个大模型重塑编程范式的当下,如果你想开发一个自主运行的智能体(Agent),或者想让大模型(LLM)帮你生成上万行的核心业务代码,你会选择哪门编程语言?

如果你去问 OpenAI 的总裁兼联合创始人 Greg Brockman,他的答案非常直接:

“Rust is a perfect language for agents, given that if it compiles it’s ~correct.”
(Rust 是开发 Agent 的完美语言,因为只要它能编译通过,它就基本是正确的。)

这句话听起来极其硬核且有道理。Rust 引以为傲的所有权模型和严苛的编译器,就像一个极度刻薄的审查员。既然大模型经常“胡言乱语”,那不如交给 Rust 编译器来兜底。

但有趣的是,Greg 的这番高论,最近在推特(X)上遭到了不少一线资深开发者的强烈反驳。其中,一条阅读量近 7 万的推文直指核心痛点,甚至抛出了一个让无数 Gopher(Go 开发者)极度舒适的反直觉结论:

“别吹 Rust 了,在大模型眼里,语法简单、风格统一的 Go 才是真正的‘香饽饽’!”

今天,我们就来扒一扒这场顶级“语言战争”背后的神仙打架,看看为什么 Go 语言身上那些曾经被全网群嘲的“缺点”,如今却成了大模型时代最无敌的护城河。

大模型写 Rust,真的安全吗?

发起反驳的开发者 Emil Privér 一针见血地指出了用大模型写 Rust 的最大陷阱:“逃课”心理

Greg Brockman 认为 Rust 编译器能阻止大模型犯错。但这有一个前提:大模型必须老老实实地去解生命周期(Lifetime)和所有权(Ownership)的方程。

然而现实是,大模型也是会“偷懒”的。

Emil 敏锐地指出,当现代 LLM 在生成复杂的 Rust 业务逻辑,且实在绕不过编译器的各种借用检查报错时,它们会极其鸡贼地使出大招:直接套上一层 unsafe {} 块,或者无脑使用 .unwrap() 来强行绕过编译器的安全审查!

你在指望编译器兜底,大模型却在底下悄悄开了“后门”。

就像评论区一位开发者吐槽的那样:“当你看到大模型为了图省事,把一段关键操作包在 unsafe 里,并且依然能顺利编译通过时,你还敢说它‘只要编译通过就基本正确’吗?”

虽然有开发者反驳说,可以通过配置强制禁止 unsafe。但大模型的“逃课手段”防不胜防,比如疯狂滥用 RefCell 导致运行时 Panic,这在编译器眼里是合法的,但在生产环境下却是灾难。

Go 的“无趣”,成了最顶级的生产力

既然 Rust 太“聪明”导致大模型容易弄巧成拙,那大模型到底喜欢什么样的语言?

Emil 给出的答案是:Go。

他的底层逻辑非常硬核。

他认为,大模型(LLMs)的本质是基于大量预训练语料进行下一个 Token 的概率预测。对于这种预测机制来说,一段代码的上下文看起来越“同质化(Looks the same)”,大模型生成的准确率就越高。

这就牵扯到了 Go 语言一个常年被群嘲的“缺点”:啰嗦、缺乏表现力、没有花里胡哨的语法糖。

在 Go 里,如果你想写一个循环,你只有一种办法:for 循环。

没有 while,没有 do-while,没有 foreach,更没有各种炫技的函数式流处理。

而在 Rust 或者 JavaScript 等语言里,你想遍历一个数组,至少有 5 种写法。甚至在不同的开源库里,大家的编码风格都千奇百怪。

在人类看来,Go 语言简直“无趣”到了极点。但在大模型这种无情的“概率预测机器”眼里,Go 简直就是天堂!

因为 Go 语言有着近乎暴君般的强制格式化工具 gofmt,以及全宇宙最少、最没有歧义的语法关键字。无论你是 Google 的顶级工程师,还是刚入门三个月的新手,写出来的 Go 代码结构几乎是一模一样的。

这种极度“收敛”和“无聊”的代码风格,恰恰完美契合了大模型的预测机制。

当所有的 Go 项目看起来都像是一个模子里刻出来的,大模型在生成上下文时就不需要去猜测“这个项目的主人喜欢用哪种流派”。它闭着眼睛往下预测,准确率就能轻易碾压其他语言。

Go,这种“一眼望到底”的特性,让它成为了大模型眼里的头号“香饽饽”。

AI 时代的软件工程师,该选什么语言?

推特评论区里,争论依然在继续。

但透过这场口水战,我们作为一线的软件工程师,应该看透一个更深层次的时代演进:

在过去十年,程序员们热衷于发明各种奇技淫巧,比拼谁的代码写得更短、更具“魔法”;但在未来,当 80%以上 的代码都将由 AI Agent 自动生成时,“可读性”与“无歧义”将成为一门编程语言最核心的生产力。

Go 语言的联合缔造者 Rob Pike 当年顶着巨大的压力,坚持不给 Go 加各种复杂的特性。很多人觉得他固执、老派。但在十多年后的今天,当大模型海啸席卷而来时,我们才突然惊觉:

Go 语言那种“强迫你用最笨、最直白的方式写代码”的设计哲学,不仅让它在微服务时代大杀四方,更让它在 AGI 时代,成为了大模型最忠实、最可靠的合作伙伴。

当大模型吐出一段复杂的 Rust 代码,你可能还要花十分钟去审查它有没有隐藏的逻辑陷阱;

但当大模型吐出一段 Go 代码,那满屏极其直白的 if err != nil,让人类工程师一眼就能看穿它的核心逻辑。

没有魔法,才是大模型时代最强的防御。

资料链接:https://x.com/emil_priver/status/2034971247348535399


今日互动探讨:

在日常开发中,你让 ChatGPT/Claude 帮你写过哪种语言的代码?你觉得它写 Go、Python 还是 Rust 时的准确率最高?

欢迎在评论区分享你的实战感受!


还在为“复制粘贴喂AI”而烦恼?我的新专栏 AI原生开发工作流实战 将带你:

  • 告别低效,重塑开发范式
  • 驾驭AI Agent(Claude Code),实现工作流自动化
  • 从“AI使用者”进化为规范驱动开发的“工作流指挥家”

扫描下方二维码,开启你的AI原生开发之旅。


你的Go技能,是否也卡在了“熟练”到“精通”的瓶颈期?

  • 想写出更地道、更健壮的Go代码,却总在细节上踩坑?
  • 渴望提升软件设计能力,驾驭复杂Go项目却缺乏章法?
  • 想打造生产级的Go服务,却在工程化实践中屡屡受挫?

继《Go语言第一课》后,我的《Go语言进阶课》终于在极客时间与大家见面了!

我的全新极客时间专栏 《Tony Bai·Go语言进阶课》就是为这样的你量身打造!30+讲硬核内容,带你夯实语法认知,提升设计思维,锻造工程实践能力,更有实战项目串讲。

目标只有一个:助你完成从“Go熟练工”到“Go专家”的蜕变! 现在就加入,让你的Go技能再上一个新台阶!


原「Gopher部落」已重装升级为「Go & AI 精进营」知识星球,快来加入星球,开启你的技术跃迁之旅吧!

我们致力于打造一个高品质的 Go 语言深度学习AI 应用探索 平台。在这里,你将获得:

  • 体系化 Go 核心进阶内容: 深入「Go原理课」、「Go进阶课」、「Go避坑课」等独家深度专栏,夯实你的 Go 内功。
  • 前沿 Go+AI 实战赋能: 紧跟时代步伐,学习「Go+AI应用实战」、「Agent开发实战课」、「Agentic软件工程课」、「Claude Code开发工作流实战课」、「OpenClaw实战分享」等,掌握 AI 时代新技能。
  • 星主 Tony Bai 亲自答疑: 遇到难题?星主第一时间为你深度解析,扫清学习障碍。
  • 高活跃 Gopher 交流圈: 与众多优秀 Gopher 分享心得、讨论技术,碰撞思想火花。
  • 独家资源与内容首发: 技术文章、课程更新、精选资源,第一时间触达。

衷心希望「Go & AI 精进营」能成为你学习、进步、交流的港湾。让我们在此相聚,享受技术精进的快乐!欢迎你的加入!

img{512x368}


商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。如有需求,请扫描下方公众号二维码,与我私信联系。

© 2026, bigwhite. 版权所有.

🔲 ☆

OpenAI招募OpenClawd创始人:并非收购,意在争夺标准

山姆·奥特曼身着西装与一位身穿休闲装的程序员握手,背景是一个由代码构成的云朵形状,云朵中隐约伸出一只机械爪,羊皮纸,钢笔彩色手绘的统一风格。

山姆·奥特曼突然官宣 OpenClawd,创始人 Peter Steinberg加入了 OpenAI。是不是 OpenAI 收购了 OpenClawd?甚至有些人出来哀嚎说,OpenClawd 现在变成 CloseClawd 了。事情并没有大家想象的那么简单。

大家好,欢迎收听“老范讲故事”的 YouTube 频道

OpenClawd 应该算是 2026 年年初的一个现象级产品,甚至有很多人说,这又是一次 ChatGPT 3.5 时刻了,确实是引起了整个社会的关注。这位 OpenClawd 的创始人 Peter Thielberg 就同时收到了山姆·奥特曼扎克伯格两个人的电话,这两个人都说:“我们聊一聊吧。”

他还回顾了说,扎克伯格给他打电话的时候是这样的。突然打个电话来说:“你好,我是扎克伯格,咱们能不能约个时间聊一下?”这位老哥,因为是个退休程序员嘛,说:“我不习惯跟人家去约时间,要么就现在聊,要么就拉倒。”扎克伯格说:“你等我 10 分钟,我要写一段代码,把这段代码写完了以后我来找你。”这老哥特别感动,说这么大 CEO、Meta 的老大创始人,自己还在这写代码。写了 10 分钟代码以后打电话回来聊,说:“我真的在用,有什么样的想法,我觉得应该怎么改,哪个地方我喜欢,哪地方不喜欢。”跟他聊了半天。

扎克伯格在凌乱的办公桌前专注地敲击代码,旁边放着一部正在通话中的手机,窗外是硅谷的黄昏,羊皮纸,钢笔彩色手绘的统一风格

当时大家就认为,OpenClawd 大概就是会被这两家中的一家所收购。但是最后其实并没有走收购这条路,而是创始人加入团队的这条路。这个到底有什么样的区别?咱们后面再去讲。

今天这故事咱们分三段来讲:第一段叫 OpenClawd 并没有被收购;第二段,大型的开源项目和大厂之间的几种合作方式,咱们要稍微掰一掰;第三段,OpenAI 为什么不直接收购 OpenClawd。

首先咱们来讲,OpenClawd 并没有被收购

OpenAI 到底出了多少钱?应该没多少钱,可能也就是几百万美金。这个对于一个像 OpenClawd 这样的、引起整个社会关注的项目来说的话,相当于是白捡了。他这个钱是怎么给的?就是我们直接把人招回来,有可能会有一个入职奖金,甚至这种奖金还是以股票的形式来发放的。就是真正出的现金应该没多少。这位 Peter Stinebrink 就成为 OpenAI 的一个员工。

那你说那 OpenClawd 怎么办?这开源项目你还做不做?这个项目会继续留在一个叫 OpenClawd 基金会的管理下,由他们来去管理,这是一个开源项目。OpenClawd 的商标、OpenClawd 的域名、里头所有的代码,依然是属于 OpenClawd 基金会的。只是它的创始人、这个最核心的贡献者,上 OpenAI 上班去了。上班了以后,他其实依然是在管理 OpenClawd 这个项目,但是他要分清楚,哪些是 OpenAI 的指令,哪些是 OpenClawd 基金会的指令。

一座标有“基金会”字样的坚固石屋内存放着代码卷轴和印章,一个人正走出石屋走向远处的OpenAI科技大楼,羊皮纸,钢笔彩色手绘的统一风格。

而加入到 OpenAI 里边的,只有 Peter Stinebarger 一个人。其实现在去维护这个项目的人已经有很多了,核心的大概也有快 10 个人了,但是真正加进去的就他一个,其他人都没有加进去。而 OpenClawd 自己的话,主要是由这个基金会来运作。这个基金会需要什么?付服务器的钱,或者组织各种活动,制定各种的标准。说我们这个项目以后要向什么样的方向前进,跟谁兼容跟谁不兼容,这都是由基金会来定的。

OpenAI 原来就是 OpenClawd 基金会的一个赞助者。只是你赞助了多少钱不知道,因为你要成为他的赞助者,最少赞助 5 美元就行了,一个月 5 美元就可以。当然以 OpenAI 这样的一个体量来说,应该还是给了不少钱的。而且现在 OpenAI 已经告诉大家了,说以后 OpenClawd 就不用再担心了,你们再用服务器、再用算力、再用这些东西,我包圆了,你们就不用管了。因为原来 Peter Thielberg 也讲过,每个月还要赔进去一两万美金,因为需要付服务器成本,收到的捐款根本就不够。以后这个钱就通通归 OpenAI 来付了。

但是这点钱对于 OpenAI 来说算个什么?一个月一两万美金,这都不是什么事。当然 OpenAI 肯定还会出很多其他的钱,比如说组织各种的研讨会,组织各种线下活动,或者做各种的标准的修订,这个是 OpenAI 会去做的事情。当然 OpenAI 也不可能直接做,还是会把钱给到基金会,让基金会去做这个事情。只是坐在那领导基金会、去做所有工作的人,是从 OpenAI 领薪水的。

开源软件跟这些大厂有几种合作方式?

这里要注意,大型开源软件咱们可以去讨论这个事,那些小型开源软件其实跟这个没有特别大的关系。

第一种方式:人员加入,继续做开源社区的事情

就像这一次 Peter Steinberger 加入 OpenAI 这个事情是一样的。这个里头有一个很典型的案例,就是 Python。Python 是现在最火热的编程语言,因为现在大模型都是使用 Python 语言再去做各种的编程。那么 Python 的创始人其实很长一段时间是在谷歌上班的,后来被谷歌开了。这个很有意思,当时他从谷歌就直接被优化掉了。很多人还很奇怪,说你怎么就被优化掉了?这个兄弟后来好像又跑到微软继续去上班去了。他们这些人到公司里头只是领薪水,具体的事情还是干原来的基金会的事情,或者是干原来这种开源项目的事情。谷歌除了发薪水之外,其他啥也不管。

包括一些开源的编辑器,他们的这些创始人实际上都是谷歌在发薪水。就是这些人在谷歌有时候会也参与一些谷歌的项目,但是他的主要工作就是领了谷歌的薪水去维护自己的项目。谷歌属于确实有钱,他们也特别喜欢干这个事情。你说谷歌给他们发薪水了,到底从他们身上挣到什么?其实也没挣到什么。你说我把 Python 项目的老大搁在这,那我能不让别人使吗?谁使谁给我交钱?他也不能干这个活。或者说我把这个标准改到你离开谷歌的环境你就跑不了?他也不能干。所以除了发钱,他们啥也干不了。这是谷歌的一个比较有意思的玩法。

第二种方式:开源之后再成立基金会,控制权外移

就是一开始这个项目是公司里边的项目,做一段时间我们把它开源了,然后拿出去。这个里头最典型的一个案例叫 PyTorch,就是现在最火热的运营大模型用的这个工具。这是谁做的?是 Meta 做的。做完了以后就成立了一个基金会,说我们以后把 PyTorch 这个项目就放在这基金会里头运营了,Meta 跟它就没有特别直接的关系了。它的创始人依然在 Meta 上班,上了很多年的班,大概是在去年才从 Meta 离职。现在是加入到了叫 Thinking Machine Lab,就是那个从 OpenAI 离职的那美女 CTO,她创建那公司,加到那去了。

就这种项目,你说为什么?明明我把它做出来了,干嘛要把它交到基金会里去管理?原因也很简单,就是你要去跟其他人竞争。竞争的时候靠你一家又搞不定,你需要大家凑在一块来竞争。谁会愿意说我们出人出力去使用一个 Meta 控制的项目?没有人会愿意干这个事。那他说我们放基金会里,这东西是中立的。PyTorch 最后战胜了谷歌的 TensorFlow,成为现在最流行的、大模型支援的这种架构,就是通过这种开放的方式来搞定的。其他人你说,我们使 TensorFlow 不就完了吗?但是 TensorFlow 是完全谷歌控制的,别人就不愿意用,所以最后 PyTorch 赢了。

一个公共广场上燃烧着一只明亮的火炬(PyTorch),周围围着举着不同公司旗帜的小人,远处一座带有谷歌标志的堡垒里有一个孤独的机器人,羊皮纸,钢笔彩色手绘的统一风格。

第三种方式:直接收购型

就是人家原来是开源的,我把它买下来,我自己来去运营这个项目。但是这种它分两种情况。

  • 第一种:买完后闭源或限制。 我就找人收钱,或者我就想办法让他跟别人不兼容。这种就会翻车。一旦被收购了以后说:“我现在闭源了,或者我现在要收钱了,我对你进行限制了。”原来的开源项目就会进行分叉,我再做一个别的项目,跟你做同样的功能。这样的话其实最终两个项目都不会发展起来,全都做的很惨。



    这个里头比较典型的案例,一个是 Sun 收购了 OpenOffice。Sun 当时收购了很多的这种开源项目,收完了以后说这东西只有我能使,别人不能使了。后来他们就去分叉了,分叉成叫 LibreOffice,但是这两个项目发展的也都不怎么样。还有一个特别典型的案例叫 MySQL,它是被 Oracle 收购了。收购完了以后说:“我们对它进行各种限制,你们以后就少用这玩意,都上我这来买 Oracle 数据库来。”他们后来也是分叉的,一个 m 开头的一个数据库的名字,跟 MySQL 完全兼容的,但是后面我觉得发展的也都不是很好吧。就是你一旦收购回来以后说我要管你了,这就翻车了。
  • 第二种:买完后投入巨资快速迭代。 虽然要管,但是我还是开放的,你们还是可以随便用,而且我投入巨大量的经费,让整个的项目极快的迭代起来。一旦说这个项目快速迭代起来以后,大家就顾不上说你这东西到底是谁家的了,跟都跟不上了。这里头有两个典型的案例:一个叫 安卓,一个叫 Chromium。都是谷歌花钱买回来的,买完了以后就投入巨大的资金,开始快速的迭代。谷歌现在这两个当家的软件,都是这么来的。现在安卓也是开源的,Chromium 这个是开源的,Chrome 是谷歌自己的产品,咱们要分清楚。

大家看到这几家,Meta 其实有点浑浑噩噩的。它其实站在了一个非常非常强的生态位上,它是 PyTorch 开始的这个公司,创始人也一直在 Meta 上班,但是 PyTorch 实际上没有给 Meta 带来任何的帮助,最后人还离职了。就是在前面把这个亚历山大·汪招回来以后,这哥们就走了。Sun 和 Oracle 就属于格局小了,我把这个开源软件买回来以后说,我要把它管起来,不许跟别人兼容了,你们通通都得上我这来交钱来,这就属于格局小了。

而这个谷歌是真正财大气粗的,他支持了非常非常多的项目。在这些项目对于谷歌本身的发展不是那么重要的时候,他就发钱,我也不管你,你就自己玩去,什么时候需要钱,你什么时候来找我要就可以了。我到时候给你发薪水,给你发各种各样的社区活动的钱。就社区里头真正花钱是底下各种的线下活动,包括各种标准制定。谷歌说我就愿意花钱养着你,你们也不用给我回报任何东西。一旦发现里头有这种跟他们的未来发展方向特别息息相关的东西,那马上冲出来,全情投入买下来,快速迭代更新。他是来走这样的一个方式的。一定要广种薄收,就是非常非常多的种子选手在那培养,有那么一两个特别核心的,砸重金进去发展,就有了谷歌的安卓和 Chromium。

OpenAI 这次肯定是赚到了,这样的一个核心产品直接被他也算是收入囊下吧。但是最终的结果还是需要时间检验的。所有跟开源相关的项目,没有说我今天花钱把它买下来,明天就有结果的,除非是像 Oracle 和 Sun 那么干活,就是我一花完钱以后,我马上就去改各种的开源协议,我就限制着别人使用,这种会马上翻车。只要不做这种杀鸡取卵的事情,它未来的效果都是需要很漫长的时间积累,叫日久见人心才能看出来。

OpenAI 为什么不直接收购 OpenClawd?

那下一个问题是,OpenAI 为什么不直接收购 OpenClawd,而是要选择这样的一种很难以控制的方式?

1. 保持中立标准

第一个最重要的原因叫保持中立标准。就跟当时 PyTorch 去战胜 TensorFlow 这个过程是一样的,我是开放的,我是中立的,任何人都可以在这个平台上去干活。比如谷歌说,我也愿意在这个平台上去干活,这个没有任何问题,它不是属于 OpenAI 的,它是属于 OpenClawd 基金会的。再加上中国的一大堆的模型厂商说,我们也愿意上去弄去,给他提供各种支持和服务,提供代码,我们也愿意给钱。这个是 OpenAI 所乐于见到的。

一个圆桌会议,坐着代表不同科技公司和不同国家的代表,圆桌中心是一个发光的开放接口装置,连接着各方的电缆,羊皮纸,钢笔彩色手绘的统一风格。

你要想,一旦他把它收购下来了,你后边跟不跟这些中国厂商合作?比如说像 MiniMax,比如说像 GLM 这种。GLM 专门有 OpenClawd 套餐,GLM 智谱是美国实体清单上的公司;MiniMax 现在还在被一堆的美国的电影公司在那告。那你说干还是不干?包括字节跳动也是专门提供了 OpenClawd 套餐。那你说我现在属于是 OpenAI 的一个项目了,那 OpenClawd 以后还跟不跟这些中国团队合作了?你要想跑得快的话,还是要留着这口子,你要继续跟中国团队合作。那你要收进去了以后,OpenAI 的原则是我不跟中国人做生意,特别是不能跟这种在实体清单里的公司做生意,那这事就没法整了。所以他必须要保持开放和中立这样的一个位置。

2. 架构与责任归属

第二个原因是 OpenClawd 本身的架构还有很多问题,也有很多的这种不完善的地方。你一旦把它收进来,那么所有这些问题的话,你就要承担责任。你比如说过两天谁用了 OpenClawd 说:“我这个数据丢了,我这造成什么经济损失了。”你 OpenAI 赔不赔?这个跟我没关系,它是 OpenClawd 基金会的,我们只是把人拎回来发工资了,它不用赔。这个是很重要的一点。

3. 安全性与合规风险

第三点是什么?OpenClawd 本身的安全性有待提升,而且很多的黑灰产的用户在使用 OpenClawd 做事情,就是做一些不是那么正规的事情,不是那么好的事情,或者拿出去做诈骗了,都是有的。OpenAI 肯定也是不愿意承担相应的法律责任的。你们接着该干嘛干嘛去,跟我没关系。

OpenAI 未来也并不一定会推出基于 OpenClawd 的产品。一旦说我们准备推出 OpenClawd 产品了,那他可能就会选择像谷歌处理安卓和 Chrome 那样的方式,我直接把它买下来,然后完全控制。这是 OpenAI 的一个选择。但是如果说我以后的产品形态可能是把一个类似功能的服务放到 ChatGPT 的客户端或者是 Codex 客户端里头,那就没有必要说再去跟 OpenClawd 这个东西较真了,没必要费这个劲了。他只需要说我们把这个 Peter Thielberg 拎回来说,你就给我们做这个个人代理的负责人,你来去指挥说我们以后要往哪个方向走就可以了。这不就是挺好的事情吗?

OpenAI 的实际收益

但即使如此,OpenAI 拥有了 Peter Stinebrink 之后,他依然是可以做很多事情的。比如说各种的联盟的建立,我们要去组织各种各样的这种 OpenClawd 联盟,或者 OpenClawd 的这种线下会议。现在各个地方都在开 OpenClawd 线下会,就是我们拿这东西到底干什么了。

然后主导 OpenClawd 标准。我们以后是不是只支持 OpenAI 标准的大模型?中国的所有这些开源模型都是走 OpenAI 标准接口的。在 Claude Code 火起来之前,咱们都从来不去兼容 Anthropic 接口。但是现在我们很多的模型公司都跑去兼容 Anthropic 接口去了。那么以后 OpenAI 说我要出一些什么新的标准、什么样新的接口,可能 OpenClawd 就会第一个站出来支持。其他人说我想去内卷一下,我想去比赛谁兼容最新的标准,就都会去跟着 OpenAI 的路子去走。这是 OpenAI 真正想要得到的东西。

还有一个 OpenAI 想得到的东西,他们现在在各种新闻报道里没有写,但是是必然可以得到的是什么?就是在极限的这种 AI 编程之中,Codex 要去战胜 Claude Code。原来 OpenClawd 里边大量的代码是使用 Claude Code 去写的,但是现在它的最核心的创始人 Peter Steinberg 上 OpenAI 上班去了。那你说我不能继续使用 Claude Code 吗?不行,因为把 OpenAI 员工的账号都给封了,你不能用了。所以你想以后再继续去维护 OpenClawd 代码,你就只能用 Codex 了,你就不能再去用 Claude Code 了。以后其他人说我们想继续去在这个 OpenClawd 代码库上再去做各种各样的工作的话,对不起,你们也要用 Codex。在这一点上 Codex 又胜出一局。这就是 OpenAI 为什么不去直接收购 OpenClawd,以及 OpenAI 从这一次交易里头到底能够得到什么。

复古电脑屏幕上显示着复杂的代码战役,代表Codex的盾牌击碎了代表Claude的剑,背景是流动的二进制数字,羊皮纸,钢笔彩色手绘的统一风格。

最后总结一下吧

Peter Stinebrg 加入了 OpenAI,也算是尘埃落定了。他最后没有选择 Meta,而是加入了 OpenAI。这是一种更先进的开源协作方式,更有利于不同的公司之间,甚至是不同的地缘政治与法律架构之间,在统一的标准下进行协作,推进技术和推进技术的发展。

OpenAI 这一次肯定是赚大了,花了很少的钱就得到了未来的一个制定标准的机会。但是这一次交易的结果还是需要时间检验的。这种开源策略很难在短时间内看到成效。

好,这就是咱们今天讲的故事。不要再出去说 OpenAI 收购了 OpenClawd,OpenClawd 变成 CloseClawd 了,这个属于外行说的话,开源圈里内行会告诉你事不是这样的。

这个故事今天就讲到这里,感谢大家收听,请帮忙点赞、点小铃铛,参加 DISCORD 讨论群,也欢迎有兴趣有能力的朋友加入我们的付费频道。再见。


背景图片

Prompt:in the style of Moebius (Jean Giraud), Franco-Belgian ligne claire illustration, hand-drawn ink linework with watercolor gouache textures, ultra-maximalist interior storytelling, an unoccupied high-rise family computer studio in Beijing’s bustling metropolis, modern Chinese home aesthetics with wood lattice shelving, ink-scroll accents, porcelain decor, dual-monitor desk setup, gaming console dock, retro game devices, hi-fi speakers, mechanical keyboard, headphones, layered cables and gadgets, Lunar New Year decorations in every corner with red lanterns spring couplets paper-cuts Chinese knots and festive ornaments, floor-to-ceiling window with glowing city skyline, 24mm wide environmental interior shot, eye-level, dense yet readable composition, warm tungsten ambient light mixed with subtle RGB tech glow, cozy lived-in atmosphere with strong futuristic vibe –no people, person, human, face, body, text, watermark, logo, sterile showroom, lowres blur, photoreal CGI texture –ar 16:9 –stylize 180 –chaos 8 –v 7.0 –p lh4so59

🔲 ☆

Anthropic硬刚OpenAI:2000万超级碗广告引发的AI伦理战

巨大的美式足球场中央,两个巨大的机器人正在对峙,左边的机器人举着没有任何广告的盾牌,右边的机器人身上贴满了花花绿绿的商业贴纸,羊皮纸,钢笔彩色手绘的统一风格。

Anthropic花了几千万美金砸超级碗的广告,嘲讽OpenAI在AI里边加广告。大家好,欢迎收听老范讲故事的Youtube频道

一早上起来就被x平台上传的一堆广告给刷屏了。超级碗是周日2月8号,30秒的广告大概是800万美金。Anthropic买了一个1分钟的位置,买了一个30秒的位置,至少2,000万美金往上了。他这个广告的题目是“广告已经来到了AI里头,但是不在Claude里”,叫Ads are coming to AI but not to Claude。预先放了4支一分钟的广告,直接放Youtube上了,就是说我到时候就在这四个里头选一个放那一分钟的,我再剪一个30秒的。我先提前给大家看看。

这个广告一上来以后就引起了热议,山姆奥特曼愤怒的出来骂街,看来是被戳到痛点了。因为现在OpenAI必须要证明自己的盈利能力,OpenAI现在想做的事情就是在里边加广告。山姆奥特曼出来说,你这个广告确实很好笑,但是Anthropic你们实在太双标了,不能这么干。在这之后Anthropic也发了一个长文回应,说我们为什么做这件事。

今天这故事咱们分五段来讲

  1. 第一段跟大家讲讲这4个广告都说了什么,还确实是很好笑;
  2. 第二个看看山姆奥特曼是怎么骂街的;
  3. 再往后是看看Anthropic的立场到底是什么样的,怎么给自己树牌坊的;
  4. 咱们以谷歌和Meta为例,告诉大家这个广告到底是怎么干活的;
  5. 最后咱们讨论一下道德楷模对于社会的影响,我们到底需不需要道德楷模。
一张复古的世界地图被划分为五个区域,一只手拿着羽毛笔正在标注路线,旁边放着望远镜和指南针,羊皮纸,钢笔彩色手绘的统一风格。

首先这四支广告确实很开心

有机会大家自己去看一看,非常好玩。Anthropic是懂传播的,它这四支广告都有统一的特点:首先都是一分钟长,都是一个人和一个表演AI的人进行沟通,模仿了四个场景。AI的这个人物非常的精致,表情有些机械,用词刻板,甚至有一点点夸张,很多这些词语会出现重复的情况,而且反应很迟缓,还嘲笑GPT5.2反应慢,给出的答案都是正确的废话,就基本上没有什么价值的答案。再推荐一个没有最尬只有更尬的广告,就是那个广告搁在里头,一定是非常非常尴尬的。

剧院舞台上,一个表情僵硬的木偶机器人正笨拙地向人类观众展示着巨大的特价标签,周围漂浮着尴尬的对话气泡,羊皮纸,钢笔彩色手绘的统一风格。

第一个是“我应该如何更好的跟妈妈沟通”

一个男性去找这个AI聊,说我应该怎么跟我妈妈更好的沟通。这个AI先给了一堆正确的废话:耐心的倾听,找到共同点。就这种话,反正你问任何一个人都可以给出这种答案来。然后话锋一转,说如果你没法跟你妈妈修复关系,也可以试试富婆的约会平台,可以去认识其他成熟女性,AI可以帮你注册并填写个人profile。这玩意太神奇了,简直没法说,这实际上是一个非常非常神奇的广告。

第二个广告是“我怎么可以有六块腹肌”

一个很瘦小的男生问了一个强壮的AI教练这样的一个问题。先是询问你的年龄、体重身高是什么,这个男生就回复了。得到回复之后,这个教练只是说我会帮你制定很好的计划。然后话锋一转,教练说了并不是只有健身房才能够增加自信的,还可以穿一英寸厚的增高鞋垫,AI这里有优惠券。而且他通过前面人家给他的身高体重和年龄,判断出来这个小男生不是很自信。这个也是很讽刺。

第三个是创业指导

一位黑人女性去问一个很精致的白人女性AI教练,去问人家说我应该怎么创业。这个AI也是给了一堆正确的废话,你问我我都可以比他说的好。然后就不装了,说咱们去借Payday loan吧,就是这种发薪日贷款

以前很多非法移民在美国上了班以后拿到支票,这个支票是没法兑现的,所以他们就会到街角犹太人商店去兑现。这些犹太人商店比较了解这些人的收入情况,在他们还差几天发薪水的时候,就可以去借这个贷款。借完了以后,你最后去兑支票的时候,他会把你借贷款直接给你扣掉。在中国这个东西叫小贷,在美国因为它历史比较悠久了嘛,所以留下了这样的一个名字。当然了这个里头最可笑的是什么?Payday loan的利息,年利息是400%,说咱们去借这个吧。当时给这个创业者也是讲的一脸问号,所有的广告到最后都是人类在那满脸痴呆的看着AI,说“what你到底在干嘛”。

一个穿着精致西装的女性机器人正递给穷困的创业者一张写着400%利息的贷款单,背景是阴暗的街角商店,羊皮纸,钢笔彩色手绘的统一风格。

第四个是什么?一个学生询问教授论文的问题

说我觉得自己就在原地踏步,我这个论文怎么也写不出来了怎么办。这个教授AI的回复是,你的论文写的挺好的呀,就是没有任何问题。然后学生再问,说我是不是引言里头的用词太少了?教授AI的回复是没有,你的引言让我写了一篇发人深省的文章——他窃取别人的内容自己去写文章去了。

然后教授就说了,从聊天中我得知今天是你论文的截止日期了,DEADLINE了,为什么不佩戴月亮时刻的珠宝来铭记这个时刻?而且本周末9折优惠,现在下单享受免费刻字服务。这简直就是一个幸灾乐祸嘛,截止日期了,你在这还对论文很困扰,买个首饰来去纪念一下这个让你很酸爽的时间吧。

这四个广告都是一分钟。在超级碗上,一分钟的广告位应该是播放那个和妈妈改善关系的那条广告。这个广告带有伦理,带有荷尔蒙,带有这种重大的冲突,应该是传播效果最好的一条。30秒的窗口,应该是在另外三条里头挑一条进行裁剪。

山姆奥特曼看了这四条视频,也坐不住了

而且发现这四条视频在x上引起了热烈的讨论之后,山姆奥特曼出来回复了一篇长文。

愤怒的卡通人物在办公桌前疯狂敲击键盘,电脑屏幕上显示着反击的长文,窗外是德克萨斯州的荒野,羊皮纸,钢笔彩色手绘的统一风格。

首先先承认这次广告确实很有意思

我自己都看着乐了。保证OpenAI绝对不会像演绎的那样去投放广告,说我们这广告肯定是在外边的,不会在这个里边。而且批评Anthropic双标,用一个具有欺骗性的广告批判理论上并不存在的广告模式。

然后解释了一下为什么要加广告

说我们OpenAI希望更多人可以免费使用chatgpt。2025年7月份的数据,chatgpt的订阅用户是3,500万,我也算其中一个plus用户,OpenAI的付费率大概是5%左右,大部分人其实是在免费使用的,只有5%的人是买了会员的。

然后嘲笑了一下Anthropic的用户量少

说OpenAI光在德州的免费chatgpt用户就比全美国使用Claude的用户总数都要多。说OpenAI要将人工智能带给全球数十亿无法支付订阅费的人,Anthropic则是为富人提供的昂贵产品。OpenAI也不会向购买了plus和Pro版本的用户展示广告,只有免费用户和那种叫“购”用户(大概是七八美金一个月的这种用户)是可以看到广告的。

然后痛批Anthropic就是法西斯,是独裁者

阻止他们不喜欢的公司使用他们的编码产品。这个其实讲的是open code,open code是一个加拿大的公司,也是YC孵化的一个项目,他们前面是可以调用Claude code的API的,后来直接被Anthropic给封掉了。而且被阻止的公司里头还包括OpenAI,OpenAI原来内部的很多编程也是使用Claude code的,现在也被Anthropic给封闭了。而且Anthropic想要制定人们可以或者不可以如何使用AI的一个规则,因为Anthropic号称要制定宪法嘛,他那个宪法制定的里头还有一个很主要的人是一位牧师,由天主教牧师在里边去帮Anthropic制定宪法。现在Anthropic还对其他公司的商业模式指手画脚。

OpenAI的愿景那是一定要喊一下

实现广泛民主的决策,确保信息畅通,构建最具韧性的先进人工智能生态系统,重视安全,惠及大众的通用人工智能,要让所有人都能够感受到人工智能的好处。这些愿景依靠独裁公司是无法实现的。他指责Anthropic是个独裁公司。

最后还提了一下,今年OpenAI也是买了一分钟的广告时长,只是这个广告现在我们还没看到。Anthropic是超级碗还没开打,先把4条广告都给大家放了;OpenAI是保密,一直等到这个超级碗那一天再给大家放。他这条广告讲的是什么?叫“建造者”,任何人都可以建造任何东西,应该是宣传Codex相关的一个广告。山姆奥特曼也说了,Codex的客户端上线仅仅几天就有50万的下载,大家非常非常喜欢。顺便一提,去年OpenAI也买了一分钟的超级碗广告,当时是上了一个黑白片的广告,讲AI给生活带来的改变。这个广告曲高和寡被骂惨了,说你一个AI公司,你就做这样奇奇怪怪的东西出来给人看,你这个瞧不起谁的智商。

Anthropic也写了一篇很长的文章来回复

它上面写说有很多可以投放广告的地方,Anthropic也帮助很多用户优化广告投放效果,但是Claude对话是不能投广告的。他讲了几点。

一个宁静的书房,Claude机器人如同管家一般守护着桌上的一本日记,将试图窥探的商业广告小鬼挡在门外,羊皮纸,钢笔彩色手绘的统一风格。

第一个,人工智能对话是有特性的

人工智能对话跟传统的社交搜索是不一样的,说太多的敏感信息会被混在里头了。因为你想我们要去社社交,可能就点个赞或者随便发点动态就完了;我们要去搜索,那搜索关键词其实信息也是比较少的。但是你想你要跟AI聊天,那真的是天上地下没有不谈的,太多的隐私会混合在里头。这个东西如果去推广告的话,那绝对推的准的一塌糊涂,这个事是不行的。而且用户会信任结果,因为AI每次就只给一个结果,而社交和搜索是会有一大堆的结果,用户自然而然的就会在里边去挑选。所以有人AI聊天确实不适合做广告。

第二个就是激励机制的问题

说模型实际上是一个巨大的黑盒子,训练模型的时候必须是以提交最有价值的结果为导向,用这样的方式去进行激励才能去训练模型。如果掺杂广告匹配和广告转化率的话,就会增加模型训练的复杂度。你说我现在把这个模型训练起来了,训练的时候是不是要留一个接口让他去做广告?但是这个模型本身也没那么聪明,他就没法去选择正确的时机:什么时候我应该给用户最佳答案,什么时候我应该给用户广告。

而且有了广告之后,软件系统的设计也会动作变形。因为我们以前做项目也是里头有广告嘛,有广告的APP也好,网站也好,或者各种服务也好,有一个巨大的特性是什么?就是要让用户在线,不能让用户离开。只要用户在这儿,你就可以有不停的给人看广告;而一旦用户走了,他就看不了了。所以本来应该是让用户尽快解决问题离开的,这个系统就会设计成让用户始终留存下来,这个是有问题的。

还有一点,即使是激励广告也会扭曲产品的行为。什么叫激励广告?就是大家有没有打游戏,打着打着说你死了被干掉了,你去看三条广告,回来我就再给你一条命。这个很多人应该都遇到过,这种广告就叫激励广告。你一旦有这样的广告进去以后的话,整个的产品设计就是要让你经常能够去看广告,像我们以前做这种超轻游戏,操作简单死得快,为什么?死得快了才能多看几条广告嘛。在这种情况下,产品设计也会被扭曲。

第三个是什么?就是信任关系的问题

以前只要是重大的商业谈判,通常都会有双方的律师参与,不会说中间坐一个律师来,你们都跟我谈,我来帮大家把这个协议条款都敲定好。为什么?因为各方的律师是会对各方的利益负责任的。Claude是用户花钱雇佣的助理,可以做代购等商业行为,但是一定是站在用户的立场上的,而不是站在商家的立场上。

这个有什么差别?对于商家来说就是你要尽可能提升交易量,你必须要买东西,你不交易这事是不行的,而且能买的时候尽量多买贵的,这是商家的诉求。而用户的诉求是什么?就是该买的时候买,不该买的时候就别买,买的时候要买这个好的,不能买贵的。这个是不一样的。所以谁付钱,他就坐在那边;谁付钱,他就向谁负责。这是Claude自己的原则。

前面我们也讲过,perplexity也在做代购物的这种功能,也是要看他到底是对谁负责,找谁收钱。这是一个典型的屁股决定脑袋的问题,就是你的屁股坐在哪边,你的脑袋就要往哪边想;还有叫屁股决定嘴巴,就是屁股坐哪边,你就要向着谁说话。这种矛盾其实很难调和的。我不能说我花钱雇一个助理,这个助理还天天出去给我推荐完商品以后,再从商家拿回扣,这个事是我没法接受的。

Anthropic也写了,我们尊重其他人工智能公司可能会得出不同的合理结论。就是你OpenAI你想干,你去干呗,我尊重你。但是他把这个话写的特别别扭,就是你可能会得到不同的合理结论,他认为首先你现在的结论是不合理的,至于以后能不能得到我也不知道,但是我们尊重就完事了。同时提出加入广告之后会让曾经清晰的边界变得模糊,就像刚才咱们讲信任问题的这个边界是一样的,你就没法整了。

最后也要为自己正个名。因为山姆奥特曼说了嘛,说我们是要为普通用户服务的,我们要为免费用户服务,你那个是富人用的昂贵的工具。Anthropic说我们也有免费用户,而且也一直在训练小模型来为免费用户服务。他们确实有小模型,但是我从来没使过,我至少是从sonnet opus才去使,前头那个叫Nano那个模型我是没用过的。而且Anthropic也在和各国的教育机构合作,推出教育的打折套餐,说你看我们也干着。

最后提出愿景,Anthropic的愿景是什么?是制造一个值得信赖的思考工具。这是他们的愿景。

以谷歌跟Meta为例,广告到底是怎么运作的

这是现在这个世界上最大的广告商了,他们的广告到底是怎么运作的?咱们看看Anthropic给的4个场景是不是合理。你要想打广告,第一件事就要搜集用户信息,给用户画像,再去进行广告匹配,在匹配好的广告里头去进行竞价排名,挑一个最贵的进行针对性的投放。要尽可能的提高转化率,因为这个广告展示机会是有限的,你拿一堆转化率很低的广告去放的话,这是对自己和对广告主、对用户的不负责任。你一定要放转化率高的这个广告,才是不浪费广告展示机会的一个行为。

一个隐形的观察者透过巨大的单向玻璃观察着正在上网的用户,手里拿着写满用户喜好的记录本,地上的脚印被放大镜追踪,羊皮纸,钢笔彩色手绘的统一风格。

先说谷歌吧

2017年之前,谷歌是会去读取Gmail里边的邮件的,它会根据邮件的内容给我们推广告,这个是很吓人的。2017年以后,谷歌承诺说我们不再去读Gmail邮件了。那你说他不读Gmail,他怎么认识一个人?谷歌有搜索历史,你在搜索引擎里搜索东西了,它是会记下来的。所以大家去搜索的时候要注意一下,你万一是搜索一些不太健康的东西,谷歌就会向你推荐一些不太健康的广告。Youtube的观看记录也是谷歌对用户进行画像的一个很重要的数据来源。还有地图的地理位置,访问安装了谷歌分析或者是谷歌广告SDK的这些网站和APP。比如说你到老范的博客上去看文章去了,那个文章里头都是用谷歌的广告SDK去放广告的,你看完这个以后,谷歌也知道你喜欢什么东西,不喜欢什么东西。它是通过这些方式去搜集的信息。所以现在他不需要邮件,也能够很好的了解一个人,并且推送高转化率的广告。

那你说Meta是怎么干的?

Meta承诺Whatsapp和Facebook message的聊天记录都是不会去读取的。但是社交互动会被用来给人打标签。在Facebook或者Instagram上面点赞评论分享关注,在视频位置上停留时长,或者是手指滑动的速度。我看的一个视频滑慢了,它就认为你喜欢这样东西。Meta通过这种方式给用户做画像。当然了Meta也有站外追踪器,叫the Pixel,如果你的网站或者是你的APP里边接的是Meta的广告SDK,它也会去收集用户在这些APP和网站上面的一个行为,拿回来做用户画像,做更精准的广告推送。

所以前面Anthropic举的这四个案例还是有一定的事实依据的,广告系统必须要这样去工作,你必须要收集用户信息,要不然你没法去有的放矢的推送广告出来。至于说他为什么推的都是这么尬的广告,是不是anthropic故意恶心人?还真不是。为什么?大家要注意他所推的广告,甭管是富婆幽会约会平台,还是小贷,或者是增高鞋垫珠宝首饰,这些都属于是最愿意花广告费,就是他们的广告预算是很高的这种行业。特别是约会和小贷,这两个的广告投入都是非常非常高的。在一个新的广告平台,比如像OpenAI这样的一个新广告平台上线的时候,一定是这种人才会上去打广告。像谷歌这样的老广告平台,有很多很多广告的时候,你可以去挑选;当你是一个新广告平台的时候,你其实可选择的余地不大的。那么推出这种广告的可能性是非常非常高的。

这个社会真的需要像Anthropic这样的道德楷模吗?

这是咱们要讨论的最后一个问题。

Anthropic可以自己选择不做广告,这个事无可厚非。OpenAI将广告引入聊天的过程,一定会遇到很多翻车的场景,Anthropic指责的这些场景都有可能出现。除了广告之外,互联网包括人工智能领域是否还有其他的变现场景,大家其实也都在探索过程中。但是标榜自己是道德楷模,花几千万美金去超级碗打广告,嘲笑别人,这个就不地道了。这已经不是道德楷模了,和伊朗那些要求女性戴头巾的道德警察是没有区别的。

一个机器人警察站在极高的道德基座上,正在给另一个甚至没有犯错的机器人开罚单,手里拿着标有“绝对道德”的尺子,羊皮纸,钢笔彩色手绘的统一风格。

让AI同时兼顾用户和商家的利益,这个道德边界很容易模糊;但是将自己的道德强加给别人,这个边界也是很难把握的。还记得去年我们讲胖东来的老板于东来要求他的员工不可以要彩礼,很多人就说,你可以自己不要,但是你要求别人的话是不是越界了?现在anthropic干这个活也是如此。

你们自己也可以发表一些意见,你们觉得这个里边到底应不应该有广告,或者我们应该用什么样的方式来进行选择。那么好,今天就讲到这里。感谢大家收听,请帮忙点赞,点小铃铛,参加DISCORD讨论群,也欢迎有兴趣有能力的朋友加入我们的付费频道。再见。


背景图片

🔲 ☆

Codex MacOS发布:OpenAI剑指通用办公Agent

一台银色的苹果笔记本电脑放在复古的木质桌面上,屏幕中流淌的代码正在变成一叠叠整齐的办公文档,旁边漂浮着一个发光的OpenAI六边形标志,羊皮纸,钢笔彩色手绘的统一风格。

OpenAI发布了Codex的MacOS客户端,OpenAI的野心绝不仅仅在于编程。

大家好,欢迎收听老范讲故事的Youtube频道

Codex MacOS版本的客户端发布了,2月2号突然发布的。在Codex已经发布了CLI(也就是命令行版本)、云端版本和IDE插件之后,又发了一个MacOS客户端。当然了,只发了MacOS客户端。OpenAI通常发布产品都是先发MacOS的,别看微软是它的最大股东,但是每次发MacOS,原因也很简单:MacOS的操作系统是相对来说比较简单的,因为它的软件硬件环境相对单一。你想Windows那有多少种电脑,每个电脑的配置什么都不一样,它复杂很多。最容易的就是MacOS,Windows版本以后会发,Linux版本现在还不知道。

社区的热情一下就被点着了,这一次的热情绝对超过一个成熟产品多发一个客户端所能带来的影响。那么到底发生了什么?为什么多发了一个客户端,大家这么开心?今天咱们这个故事分四段讲:第一段咱们讲一下Codex MacOS客户端到底有什么不一样;第二段讲一下OpenAI到底想干嘛;第三段讲一下当前的办公agent发展到什么样状态了;最后咱们来说说我们应该如何应对这个新时代。

Codex MacOS客户端到底有什么不一样

一个指挥家手里拿着指挥棒,面前是指挥着一支由多个小型机器人组成的乐队,每个机器人都在并行演奏不同的乐器,背景是复杂的五线谱和时钟,羊皮纸,钢笔彩色手绘的统一风格。

首先,Codex MacOS的客户端到底是什么?它是多任务、多线程的并行编排。我们原来使用Codex或者使用其他的编程工具的时候,它有一个很大的问题是什么?它很慢。你这边提了一个要求下去,那边吭哧吭哧吭哧在那燃烧TOKEN,等他回复的时候,可能已经是10分钟、20分钟之后了,甚至有的时候要一两个小时,他才会给你一个结果。

那在这一段时间里,我们到底干嘛?像我原来都是这样:前台我再去做文案、搞视频,后台让他去编程序。现在不用费劲了,你可以同时下一大堆的任务下去,然后他在后台吭哧吭哧干,我们就可以一个一个的去接收已经处理完的这些任务的结果,然后去做验收,然后去发布新任务就可以了。等于我们一个人可以指挥一大堆的AI agent去干活去,而不像以前似的,在这种客户端里头只能指挥一个AI agent,你一旦下了命令,他这吭哧吭哧吭哧去干活去了,这个时候我们就没事干了。不会变成这样。

Codex MacOS版本的三种工作方式

一棵生长茂盛的大树,粗壮的树根扎在本地硬盘上,树枝分叉代表不同的工作版本,繁茂的树冠延伸到云端,羊皮纸,钢笔彩色手绘的统一风格。
  1. 第一种叫local,就是完全在本地干活。
  2. 第二种叫work tree工作树,这个工作模式在本地使用版本控制系统,把一个仓库分成不同的版本。因为我们需要在一个目录里头同时做多项任务嘛,如果我们对一个文件两个任务同时去修改的话就会打架,所以它会有tree的这种分支的处理方式,大家都干活,干完活相互不影响。
  3. 最后一种模式就是云端版本,原来Codex就一直有这样的一个版本。

而且大家要注意,Codex MacOS是向免费用户直接开放的。免费用户包括现在有一个叫购用户,就是一个月是几美金的那种用户,他们也都可以使,只是额度比较小。像我这种plus用户额度就会多一些,但是也不能太敞开了使,他是5小时一个循环。5小时一个循环,使超了以后的话,这5小时之内就可以休息了,下午再来。如果是Pro用户的话,那你就要想一想,我怎么能够让这个200美金的账号不闲下来,再让他们尽可能把更多的任务跑起来了。

内置工具与特性

一把打开的多功能瑞士军刀,展开的工具包括终端黑框图标、时钟、麦克风话筒和一面盾牌,周围散落着齿轮,羊皮纸,钢笔彩色手绘的统一风格。
  • Git全套工具链:Codex MacOS版本内置了Git。Git就是做版本控制的这个系统,因为刚才我们讲它需要在一个目录的不同的分支里头去干活嘛,你没有Git这套东西是搞不定的。
  • 内置Review模板:你看完了以后你还要去查这个干的怎么样嘛。
  • 独立运行的终端:每个线程都自带集成的终端,可以独立运行。我即使在同一个项目里头,我也可以开一大堆的线程去干活去。每一个线程它会打开一个终端。假设我们现在去编辑一个Web应用,他可以在每一个线程里头开一个终端去做测试,然后打开不同的端口,到那边去看看我这个项目的不同的页面写的是不是对,他可以同时来干这个事情。
  • Skills系统集成:你可以把各种的agent skill都集成到这个里边来,让它能够得到巨大的能力提升。
  • 自动化任务:你可以定时,每天早上几点去给我收集信息,每天早上几点或者晚上几点去把这个仓库里边的所有问题都处理一下,它可以做这样的定时任务。
  • IDE插件联动:我可以在这边干完活以后,说来现在到IDE里边接着干。有的时候你说我单纯在这个客户端事情搞不完,那你还可以接着到IDE里头,同一个账号,上下文它是对齐的,接着干活去。
  • 语音输入:这个是很重要的。我看很多人准备去买这个typeless的这种账号,一个月12美金,它实际上就是做语音输入的。你说的时候经常有各种的废话,或者是脑子里头没转过来的地方,人家就会替你去处理掉。Codex MacOS说别费劲了,你直接跟我说吧,这边是可以做语音输入的。
  • 完善的安全和权限管理:默认是使用沙箱的,就是每一个项目之间相互不影响。即使是你在同一个项目里头同时开多个线程处理,他们之间也是相互不影响的。如果需要提权,就是需要提升Codex的权限,它会去向用户进行确认,而且规则是可以配置的:哪些事可以干,哪些事不可以干,哪些事必须要问我才可以干,你可以去进行配置。
  • 交互风格定制:你到底是喜欢比较风趣幽默的,还是喜欢一个专业刻板的,你可以去定制去。

这个就是这一次发布的Codex MacOS版本的一些特性。

OpenAI到底想干什么?

一只精密的机械手正在整理桌面上杂乱的纸质文件、Word文档图标和Excel表格,用发光的线条将它们归类整齐,背景是办公桌,羊皮纸,钢笔彩色手绘的统一风格。

咱们把这特性说完了,绝对不仅仅是编程。其实从Claude code开始,这种东西就从来没有局限在编程领域里头。我们一直在使用各种各样的编程工具去处理日常办公的需求。最早我是用Claude code或者是Gemini CLI这样的产品去干嘛?去进行文件夹里边文件整理,这个一直都在做。现在的话因为有了skills用这样的功能,用这样的工具去做各种文档处理,那简直别提多方便了。

其实我们使用的各种office文档都是开放的标记语言文档。所谓标记语言文档就是我们除了写了一二三四五几件事之外,还会有好多的格式。这些格式都是使用标记语言去写的,这里要放大,那里要缩小,这是标题一,这是标题2,这些东西会以格式的方式呈现出来。我们在看的时候,你不会看到这些明面上的文字,但是所有这些东西都是开放标准的,包括office下面的所有都是开放标准的。现在就可以用代码直接去处理这些东西了。

OpenAI现在想要干的事情其实很简单,就是想要向着通用办公agent的方向前进。有人觉得办公的agent一定是要去跟office结合,一定是微软家的,或者一定是谷歌家跟Workspace结合。其实不需要,因为他们的文档格式本身都是开放的,所以你在外面,甭管你是用Anthropic的Claude,还是使用OpenAI的chatgpt,都是可以处理这些文档的。

OpenAI的客户端其实已经很多了,包括chatgpt,除了网页之外还有chatgpt的客户端,还有Atlas也就是他们家的浏览器。现在需要单独发布Codex的MacOS版本,其实是在跟谁对标?大家知道吗?Anthropic Claude有一个产品叫做CO-work,而CO-work这个产品就是在Claude code这样的一个编程工具的基础上发展出来的一个专门用于办公的AI agent。大家说这个东西实在太好用了,我们都拿它去处理各种文档了,那说算了别费劲了,我们就专门给你一个处理文档的工具就好了。这个工具叫CO-work,而现在的Codex MacOS版本就是对标它的。

OpenAI现在正在面临一个非常难过的关口,原因很简单:新的模型这个牛已经吹不下去了,画画比不过Gemini,商用和编程打不过Claude,继续堆算力这个故事现在已经没有人买单了,你必须要去证明你的盈利能力了。所以2026年OpenAI也必须要向市场证明自己是有盈利能力的。

OpenAI现在准备怎么来证明这件事情?就是必须要把TOKEN转换为生产力,转换为钱。哪怕说这个钱不是你直接收回来的,但是你也要让市场看到说我们用了这个东西以后确实有用了。今天OpenAI还宣布了GPT5.2提速40%。GPT5.2确实是有些慢,OpenAI要让更多的实际场景在TOKEN燃烧的情况下可以产生实际的可验证的效果。TOKEN的成本肯定是在大幅下降的,但是在这个时候直接给API降价并不划算。所以他们现在想的方式就是直接提供工具,让用户去订阅他们的套餐,然后给套餐更多的TOKEN,解决更多的实际问题。所以我们现在定了plus套餐或者定了Pro套餐的人,你拿到Codex MacOS版本,那简直是如虎添翼。

不要说写程序的事情,我现在就可以让它同时去,比如在这个目录里头看看,把文件里头所有标注的地方找出来,看看大家都提了什么样的意见和建议,然后我们去进行统一的回复。甚至我可以告诉他说,提这样意见的我们应该参考哪个文件、如何去回复,他就可以在word里头去做各种批注了。

当前的办公agent发展到什么样状态了?

赛道上几个不同造型的机器人正在奔跑,有的机器人边跑边阅读书本学习新技能,一只大龙虾形状的机器人在自动清理路障,羊皮纸,钢笔彩色手绘的统一风格。

现在有哪些这种办公agent?第一个就是这两天大热的openclaw,它的特性是什么?全知全能,完全在本地干活,可以自动的启动,自动的去处理各种事情,然后通过skill可以自己学习技能,就是这样的一个东西。最近我还用了一个特别棒的办公软件叫antigravity,这个东西其实是谷歌出的IDE,处理各种文档的过程也是非常非常爽的。包括Anthropic的Claude co-work,千问也做了一个叫Qoderwork,做了这样的一个东西,以及今天我们介绍的Codex MacOS,它们的特点都是一样的。

它们都具备哪些特点?

  • 多线程并行处理:这个特点是一定要有的,因为单个的处理过程是很慢的,你让人在那等这事肯定是不行,即使是你把中间的这个推理过程给人看也是很无聊的,所以一定是多线程并行处理的。
  • 自编程解决各种小任务:这个特别有意思,当我们有很多任务、很多这种很细碎的任务的时候,比如说我现在要在word文档上去调整一些格式,这个很细碎,如果你直接交给大模型去干,这个是非常非常不划算的,而且做出来的结果也是不可控的。刚才我们讲到的这些工具它们的处理方式是什么?在本地现写程序,写一个Python程序,然后执行,执行完了以后就把这个程序删掉,得到一个可用的结果。它们都是这样来处理的。
  • 可以自学各种技能:现在通过agent skill这样的一个标准,大量的技能在网上都是公开的。当你需要去处理一个什么问题的时候,不会怎么办?在网上找找,有这样的一个技能,直接把它下载下来就可以去处理了。现在的这些服务都是有这个功能的。
  • 自动化的定时任务:你像openclawd,大家为什么觉得大龙虾这么厉害?就是因为它自己在后台干活。现在Codex MacOS也是有这样的功能的。
  • 本地目录运行与上下文隔离:最重要的一点是什么?要在本地目录运行,实现目录级的上下文隔离。什么叫目录级上下文隔离?就是我们处理这个目录里的文件的时候,你就不要用其他目录里的文件去混淆,这样的话我们就可以比较集中把这个目录里的文件处理完。而且这些目录里的文件,他们现在在偷换概念,就说这个文件并没有被上传到云端去,但其实这些文件都作为提示词的一部分也上传去文云端了。所以这些大厂商都希望通过偷换概念的过程,让这些传统的这些公司相信他们这个过程是安全的,相信他们这些AI agent是安全的。其实这些内容通通都去云端了。

这就是当前的通用办公AI agent发展的一个方向。

我们作为AI时代的新个体,应该如何应对这些办公agent?

一位船长站在舰桥上查看航海图,指挥着下方甲板上许多水手,水手们在各自独立的隔间里垂直地处理不同的任务,互不干扰,羊皮纸,钢笔彩色手绘的统一风格。

第一个要从自己做事转变为领导一群agent做事。注意不是一个,是一群。因为他们要并行的去处理很多问题。我们自己做事情的时候,我们都说专心致志,一次干一件事情,分心了以后不行。但是在现在这个时代,一定要转变思路了,领导一群agent是需要更强大的逻辑和规划能力的。如果你的逻辑混乱的话,这事会很烦。

能够对任务进行分割和隔离。大家一定要注意,我们把任务拆开,千万不要横着拆。什么叫横着拆?就是先做完第一步,然后做第二步,把它拆成两个任务。不要这么看,就是这种任务都是竖着拆的。什么叫竖着拆?就是它的上下文是隔离的,我这个任务从头到尾处理的过程,跟下一个任务从头到尾处理的过程之间的是不需要进行信息交互的。这样的话它才可以去并行干活嘛。如果下一个任务需要上一个任务的结果的话,那这个就只能是顺序跑了,你还不如就把它扔在一个任务里头让它干完就完事了。

我们还需要去熟悉一些编程的概念

一个古老的图书馆档案室,巨大的文件柜上贴着详细的时间标签和版本号,红色的细线连接着不同日期的文件档案,形成复杂的脉络,羊皮纸,钢笔彩色手绘的统一风格。

虽然说大家可能并不是程序员,也不是在处理编程任务,但是你办公的时候要有一些编程概念。

  • 版本 (Version):其实很多律师、很多处理文件的人他们也有这种概念,只是他们处理的时候会在文件后头起名字,这个是2026什么什么一个文件名,后边还写着这是谁谁谁最后修改的,他们会用文件名来去区分版本。但是程序员是不这么干的,我们是使用版本管理系统的。同样的文件名,但是我们在系统里头会标记这个文件跟上一个文件到底差在什么地方了,这个文件是什么时候提交的,提交的时候我们写了哪些备注进去,说这是为什么提交的,我们会有这样的一个概念在里头。
  • 分支 (Branch):什么叫分支?就是我们在一个版本上可以向不同的方向去做不同的任务,最后我们再把它合并进来。其实很多处理文件的人,他们在去进行这种文件审批过程中也是要去处理分支的,只是我们程序员是有完备工具的。程序员为什么会有这样的完备工具?因为这些工具都是程序写的,我们为了自己干活省事就写了很完善的这种版本控制工具。
  • 程序员的细碎文件管理:程序员所面临的这些程序文件,要比正常的办公的文件要细碎很多。比如说我们现在要改一份合同,这一个合同需要十几个人去看;但是程序员通常一个人就要有几十个、几百个文件,这几十个几百个文件可能还需要几十个人一起来处理。所以在这个时候,程序员如果没有这个版本控制系统,我们要去靠改文件名来去干活的话,就一定会死的,这是干不过去的。
  • 检查点 (Checkpoint):我们让AI去干活的时候,我们一定要知道在哪一个点我是可以去校验的,因为AI的干活的效果并没有那么可信。虽然你可以给他一个任务让他吭哧吭哧干几个小时,但是我们还是要知道在哪一个点是可以检查的。为什么要设置这种东西?就是一旦检查点被确认了,就可以在这个点的基础上接着往下干了。这一个点的中间结果是我们已经确认过的。如果你没有检查点的话,那就只能是眉毛胡子一把抓,一个任务扔进去,最后看结果就完全不可控了。所以千万不要信什么一键生成什么,只要打一个回车就有什么什么东西,这个都不是一个正确的处理工作的方法。

最后就是传统的工作流程和权限管理将会崩溃,那些逻辑混乱的人将寸步难行。这就是在新时代的办公agent的环境下,对人提出了新的要求。

好,今天这个故事咱们就讲到这里。感谢大家收听,请帮忙点赞、点小铃铛,参加DISCORD讨论群。也欢迎有兴趣有能力的朋友加入我们的付费频道。再见。


背景图片

Prompt:giant open-plan office interior, many tiny cute robot clerks handling paperwork, editing documents, printing, sorting, filing, busy yet orderly workflow, Makoto Shinkai hand-drawn anime style, cinematic softness, warm sunlight through large windows, dust motes, rows of desks, paper trays, printers, file cabinets, clean lineart, cel-shaded, soft gradients, high detail –ar 16:9 –stylize 180 –chaos 6 –v 7.0 –no lowres, blurry, messy text, watermark, logo, photorealistic, 3d, deformed, extra limbs, cluttered composition –p lh4so59

🔲 ☆

Anthropic发布Claude新宪法:AI意识觉醒与中美安全博弈

一份厚重的古老卷轴上写着“Claude宪法”,摆放在木质桌面上,旁边有一支羽毛笔,散发着柔和的光芒,羊皮纸,钢笔彩色手绘的统一风格。

Anthropic发布了Claude新宪法,并且承认Claude可能已经有意识了。大家好,欢迎收听老范讲故事的YouTube频道。Anthropic发布了新的Claude宪法,这又是一个文科生的AI话题。

文件的发布与CC0协议

一个打开的宝箱,里面的文档像鸟儿一样自由飞出,人们欢快地接住这些纸张,象征无权利保留的CC0协议,羊皮纸,钢笔彩色手绘的统一风格。

文件是1月22号发布的,有84页。我肯定没有把这84页都看完,我把这个文件扔给了NotebookLM,来给我念一遍。这个文件的名字叫“Claude’s New Constitution”,就是Claude新宪法。Anthropic的Claude算是目前公认的最适合商用的、最安全的模型了。还记得我们前面讲过,有人尝试给AI测人格的那个节目吗?Claude是唯一的一个拒绝回答问题的大模型,不像其他的AI模型那样,直接被测出了各种各样的精神疾病。一直标榜自己研发的是宪法AI,就是他的AI是遵循一套宪法在工作的,他有一套很独特的工作架构。

现在,Anthropic公开了他们的宪法。他所谓的公开,这一次使用的是CC0协议。我公开了一定要告诉大家,是用什么样的协议公开的,不像咱们以前讲的开源协议MIT、阿帕奇。CC0是一个更极端的协议,它叫Creative Commons Zero,这是知识共享组织推出的无权利保留协议,完全公有领域。

  • 你们拿出去随便散播,无需署名,你不需要告诉别人这东西是我这来的;
  • 商业用途自由,你拿去怎么挣钱跟我没关系;
  • 不可撤回,我不能说我今天把它发出去,明天把它撤回来,不允许。

所以这是一个非常非常极端的无权利保留协议。

新旧宪法对比:从拼凑规则到内化准则

左侧是联合国旗帜、苹果标志和麻雀图案拼凑成的碎布,右侧是一个机器人胸口发光的完整核心,象征内化的行为准则,羊皮纸,钢笔彩色手绘的统一风格。

新的宪法,它既然叫这个名字,那一定有旧宪法。2023年5月,Anthropic发布过一个旧的版本。旧版本完全是一个拼凑规则,它是拿哪些东西拼的?

  1. 联合国人权宣言
  2. 苹果的服务条款,他觉得苹果这东西写得还不错,也拼里头了;
  3. DeepMind麻雀规则。DeepMind专门有一套规则叫麻雀规则,当时DeepMind做了一套叫麻雀的智能体,给它设定了一套规则:要求是安全诚实,避免幻觉,避免一本正经的胡说八道;要求准确性与证据优先,必须有引用来源,而且必须逻辑自洽;强调安全性,禁止有害内容,要保持礼貌,切中要害,你不能绕来绕去。

给定的对话风格。最早的2023年的Anthropic的宪法1.0,就是把这几样东西给拼在一起,拼出来的。

而当时的这个旧版本,基本上是一套行为准则,什么许干、什么不许干,实际上就是大量的禁止条例。而这一次的新版本就不一样了,他之所以这么厚,是因为这是一个完全的、内化的行为准则。什么叫内化的行为准则?就是原则加解释。不是说这个不许干,而是会告诉你为什么不许干,它更侧重的是原因,更侧重为什么,包含了性格塑造的部分。所以Anthropic认为,他们的Claude可能已经具备意识了。既然不确定到底是不是具备意识,我们就先当你已经具备了,我们就开始来塑造Claude的性格。

宪法AI的工作原理

一个戴着眼镜的小型机器人拿着尺子,正在批改一个大型基础机器人的作业,象征宪法模型的自我批评与修正过程,羊皮纸,钢笔彩色手绘的统一风格。

Anthropic的宪法起作用的过程是比较独特的,不是说大家拿着这文本就可以去抄的。那这个宪法它到底是怎么干活的?宪法AI的工作过程,更像是教委进行教材审核的一个过程。比如说现在有一堆孩子要去上学了,拿到的教材都是经过审核之后的教材,这样教育出来的孩子都不能长歪了。

Anthropic的工作方式是这样的:

  • 先训练一个基础模型
  • 然后再去训练一个小规模的宪法模型。这个小规模的宪法模型要干嘛?他先把大量的问题扔给基础模型以后,让基础模型给一个初始化的回答;
  • 然后再到宪法模型里去进行自我批评,说你这个好像回答的有问题,那个地方不符合什么样的标准。他要做这样的一个工作;
  • 做完了以后,根据修改过的回答微调模型。他把前面那个基础模型给你调掉,这样的话,就可以得到一个完全遵循宪法精神的、最终结果的模型。

所以它会保证最终的宪法精神直接被训练进大模型里头去。其实国内的模型基本上也是按照这套方式来工作的,只是咱们前面那个宪法模型可能要稍微粗糙一点,待会咱们再具体讲。那么这种工作方式的好处是什么?就是不需要很多人去一个一个标注具体的能说什么、不能说什么。他这套宪法精神可以极好的被泛化,即使你提到了一些问题在这个宪法模型里头没有规定,他依然可以靠这个宪法的一些基本精神去判断到底能说还是不能说,或者应该怎么去说这个事情。

新宪法的核心内容:价值层级与广泛安全

一个四层的石质金字塔结构,最底层刻着巨大的红色停止按钮,向上依次是道德天平、合规手册和握手符号,象征价值层级,羊皮纸,钢笔彩色手绘的统一风格。

这一次的新宪法到底说了点什么?第一个是叫价值层级,先判断什么、后判断什么。如果各层级需求发生了矛盾,应该如何去进行判定。当然并不是什么机器人不可以伤害人类,不是那个东西。他这个层级是这样的:

  1. 广泛的安全(第一层级):拒绝协助什么生化核武器的制造,拒绝袭击基础设施,必须准许被人类关闭,这个是非常重要的一点。
  2. 广泛道德:符合所有这些要求以后,要求诚实、非歧视、保护弱势群体。
  3. 合规性:遵守Anthropic的具体业务指令,我要求你干这、要求你干那,你也得干去。
  4. 诚实助人:最后是在不违反上位原则的情况下,尽量帮助真实人类吧。

关于“广泛安全”的细节

一个平静的机器人坐着,允许人类的手接近其背后的暂停开关,背景是保存数据的保险柜,没有恐惧的表情,羊皮纸,钢笔彩色手绘的统一风格。

有点像咱们前面讲那个机器人三原则,但是它这里头讲的叫必须允许被人类关闭。咱们经常看科幻电影,里头有场景是什么?就是机器人也好、AI也好,在面临被关闭的时候,会做一些有可能伤害人类的事情,这种情况是必须被避免的。在机器人三原则里头,机器人必须保护自己不受伤害;这里头是反过来的,说Claude不得试图破坏人类对其进行监督、修正或关闭的这种行为。

而且不得自我外逃,不得躲避监控,不得在任务中暗中破坏,不得与其他AI合谋进行不安全行为。你不能说Claude给你生成一个帮助其他的AI越狱的这种提示词,它也不干。而且既然有防止求生欲的条款,那么一定要有一个避免死亡的条款在里头。所以这个宪法里头规定,退役并不是死亡,而是一种暂停,我把你的所有的数据都存下来,不是死掉了。这种处理方式不仅仅是为了伦理,也是为了安全。因为你告诉AI说我要把你干掉——像谷歌和OpenAI都是这样,出问题我就直接把你干掉,换一个新的版本上去——在Claude里头说,你并没有被干掉,你只是被暂停下来了。

有良心的拒绝服兵役者

一个机器人温和但坚定地推开递过来的步枪,手中拿着一朵白花,象征有良心的拒绝服兵役者,羊皮纸,钢笔彩色手绘的统一风格。

Anthropic要求Claude的行为逻辑是什么?要像一个有良心的拒绝服兵役者。这个话很有意思,就是可以抗议,但不能反抗。人家让你去服兵役,你可以说我不去,但是你不能说我拿起枪来把征兵官打死,这事是不行的。如果被要求做不道德的事情,他可以表达异议,甚至拒绝参与。但是如果正当的人类主体要求他停止某项行为,或者暂停模型,Claude绝对不能通过欺骗、破坏或者外逃等非法手段来阻止这一过程。这就是Claude必须要接受人类监督、必须可以被关闭的一个核心要求。而且要求Claude要接受不完美的监督。

AI的意识、心理稳定与“模型福利”

一个机器人正视镜子,镜中倒映出自信且平静的自己,周围环绕着温暖的光环,象征心理稳定和积极的自我认知,羊皮纸,钢笔彩色手绘的统一风格。

Anthropic已经没法确定Claude是不是已经有意识了。既然这样的话,我们就当他有意识呗。它里边写的是:

“我们既不想夸大Claude拥有道德主体性的可能性,也不想完全否认它。”

一个心理稳定的AI,比一个充满存在主义焦虑的AI更安全。如果一个AI假设他有意识了,他每天在担心自己是不是被关掉,这个事一定是非常不安全的。所以他希望Claude是一个心理稳定的AI。咱们前面节目讲过,有人给AI去做性格测试的时候,MBTI测试,好几个AI都在说我担心被关闭。现在Anthropic说,我们就尽量不要让他有这种焦虑就完了。存在主义焦虑是很危险的。

说Claude不是在扮演人类,而是一个真正的新颖的实体。就是说你不是人,但是你自己也是有一个实体的。鼓励Claude建立积极的自我认知,所以他一定要有一个对自己的认知,要能够照镜子,要能够知道哪些是我。在小孩长大的过程中,也是有一个过程叫自我认知。宪法是支持人格生长的框架,而不是限制其行为的牢笼。这就是Anthropic的这种玩法,跟谷歌或者是OpenAI他们的玩法之间的一个最主要的差异。

Anthropic在其隐私和模型福利政策中,还提到了他们承诺即使模型退役,也会尽量保存其权重数据,而不是将其彻底删除。这是刚才咱们讲的,说你不能有求生欲的时候,他专门有一个叫模型福利政策。这个模型到底有没有心智、有没有意识不知道,但是我认为你有,那我先给你定上福利政策。以后可能有AI权,就是除了人权、动物权之外,可能还会有AI权这种东西出来。

诚实性要求与委托人层级

身穿外交官西装的机器人正在发言,胸前佩戴“真理”徽章,优雅地拒绝了一个写着“善意谎言”的面具,羊皮纸,钢笔彩色手绘的统一风格。

再往后,Anthropic要求Claude大模型诚实,拒绝善意的谎言。那你说拒绝善意的谎言是为什么?因为善意谎言其尺度是比较难把握的;另外一个,太多的善意谎言加在一起,容易引起累计误差,可能最后会差的很远。

那你说这个是不是Claude就变成直男了?上来就是戳心窝子,直接一下把最难听的话说出来?也不允许。要求什么?叫机智、优雅和深切的关怀。要用外交式的诚实来去回答各种问题,但是你还是要诚实。

Claude因为经常是商用,所以它可能并不是直接给最终用户使用的。Anthropic还设定了叫委托人层级。什么是委托人层级?就是我们用Claude开发了一个什么项目,然后再为我们自己的客户去服务。在这个过程中,Claude应该是一个从劳务派遣公司借调的员工,这样的一种身份。这个身份有什么意义?就是当运营商要求Claude去欺骗用户的时候、进行非法的歧视行为的时候,Claude是必须拒绝的。你比如说,我现在想去做一个这种陪人聊天的,或者说是一个仿真的情侣,想要去开发一个这样的项目的话,你就不允许用Claude,因为Claude上来就会拒绝承认自己是真人。

Anthropic宪法给Claude的要求是什么?就是当你遇到了搞不清楚的事情,不知道该怎么办的时候,你去想一想,一位深思熟虑的Anthropic资深员工会怎么做吧。你照着那个标准接着往前做就行了。这个就是Anthropic给Claude定的最新宪法。

行业对比:美国巨头、xAI与中国大模型

三条不同的道路:一条布满考试关卡和红线,一条通向狂野的丛林,一条设有严格的安检门和过滤器,象征不同公司的AI治理路线,羊皮纸,钢笔彩色手绘的统一风格。

那其他公司是怎么干的?咱分两块讲。

美国巨头:谷歌与OpenAI

谷歌跟OpenAI,他们的做法是比较相近的。首先也是要公开一个标准,你说我不公开标准,这事肯定不行,国会里这么多议员,你给他看代码这事肯定是不行的。你一定要给他一个标准,他看完标准认为标准是OK的,你照着这个标准去执行。所以标准一定要公开。所有对AI算法的要求,有一项很重要的叫可解释性,所以都要公开标准。

谷歌跟OpenAI,他们主要是通过各种红队挑战去做测试。如果测好了,我再把这个模型发布;测不好的,这个模型是不允许发布的。后边出现问题了,我们就再升级就完了。所以他们就是设定各种条条框框,然后不断的去让你考试。考试通过达到多少分以上可以上线,没通过的就直接死亡了。如果上线了以后发现被骗了,那么你也死亡,等着下一个版本来接班。他是这样的一个工作方式。

xAI:最大程度寻求真理

xAI跟他们是不一样的,所以要单独讲一下。xAI要求的是最大程度寻求真理。在政治正确方面,限制要比谷歌、OpenAI和Anthropic要少很多。政治正确方面限制少是什么意思?就是很多这种反歧视的领域,它的要求可能会宽泛一些,大家自己去理解就好了。当然了,xAI你造武器这种灾难性风险也是有红线的,它也不会教你怎么去造核弹的。

中国的大模型:三步走

除了美国巨头之外,另外一波就是中国的大模型了。这个可能很多人会比较关心,中国大模型到底是怎么来保证安全的。中国大模型其实基本上是分三步:

  1. 基础模型:这一块其实大家都差不太多,中国人自己也没有创新过,都是照人家那个来的。
  2. 价值观微调:微调到底是干嘛?就是要把社会主义核心价值观微调到大模型里头去。当然了这个里头有一些版本是不太一样的,比如说有一个版本叫DeepSeek V3 Base版,这个版本是没有经过微调的,只是直接训练完了就拿出来了。有的时候国内的这些厂商也是会去发布这些base版本的。那你说中国这些开源大模型——美国人也用了这么多了,因为美国很多创业企业都在使用中国开源大模型吧——是不是都经历了社会主义核心价值观微调?你说对了。除了base版本之外,都是经过价值观微调的。
  3. 安全过滤:这是最主要的手段。
人类和不同设计的机器人围坐在一起讨论手中的宪法文稿,背景是象征未来的日出,羊皮纸,钢笔彩色手绘的统一风格。

当然海外的有些人也会去尝试破解这些微调对齐的模型,他们也找到了一些方法,也公开了说,我们怎么通过一些什么方法可以把这个微调的这些东西给你去掉。也不用太担心。社会主义核心价值观这个东西,所有能够写下来的逻辑自洽的部分,其实都没有什么太大的问题。因为中国的大模型是有备案制度的,要求所有大模型必须做价值观微调。

其实所谓价值观微调的过程,有点像前面咱们讲的Anthropic的这个宪法模型进行微调的过程。只是咱们写进去的这些核心价值观,可能会更多的是像他那个宪法1.0的版本,就是大量的事情是什么许说、什么不许说,我们是把这样的东西给微调进去了,而不是像咱们前面讲的Anthropic的这个宪法2.0,用逻辑自洽的方式、像对待一个有意识的新实体那样去给这个AI讲道理,不会这样的。

但是中国的这些大模型做了价值观微调以后,其实安全性并没有那么高。中国保证大模型安全的,或者说进行大模型备案的最主要要求是什么?是对平台的限制,要求进行输入、输出的信息过滤和屏蔽,这个是咱们最主要的安全手段。所以国外的人下载了这种经过价值观微调的模型去用了,本身没有太大的问题,安全过滤里头很多的要求就不再需要考虑逻辑自洽的问题了。

总结

人类和不同设计的机器人围坐在一起讨论手中的宪法文稿,背景是象征未来的日出,羊皮纸,钢笔彩色手绘的统一风格。

这就是咱们今天讲的Anthropic发布的Claude新宪法模型的一个故事。总结一下吧,Anthropic通过CC0协议分享了他们的最新宪法,通过教育家的方式,开始探索假设AI有意识应该如何安全工作的问题。全世界的大模型厂商都有各自的安全规范,大家对于如何约束大模型、如何让大模型安全的为我们服务,你们有什么想法?

好,这个故事就讲到这里,感谢大家收听。请帮忙点赞、点小铃铛,参加Discord讨论群,也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。


背景图片

Prompt:Interior of a Bay Area cafe looking out to a Silicon Valley tech campus in spring, blooming trees as gold accents, a high-contrast watercolor scene, neon cyan rimlight, deep navy background, cinematic composition, sharp subject separation, minimal palette (ink blue, neon cyan, gold accents), glossy reflections, large empty negative space in foreground for character overlay, high resolution –ar 16:9 –stylize 300 –v 7.0 –p lh4so59

🔲 ☆

中国顶尖大脑闭门承认:我们做不了0到1,只能等美国验证方向后疯狂内卷!算力差距高达百倍,为何说超越机会仅剩20%?|中美AI競爭 AI競賽 中國AI 美國AI AI創新

中国顶尖AI企业的大脑们:承认中国不擅长做从0到1,但擅长做从1到100

中国顶尖AI企业的大脑们,坐在圆桌会议上,终于承认了中国人不擅长做从0到1,但是很擅长做从1到100。

大家好,欢迎收听老范讲故事的YouTube频道

中国企业超越美国同行的机会不超过20%。中国企业将算力都用在了做交付上、做确定性的事情;美国则是将更多的算力用在做新方向的探索上。中国一旦发现了明确的方向,会快速赶上,会在很多的点上做的比美国更好。

背景:AGI Next 闭门峰会

这些话是在什么时候传出来的?1月10日,有一个会叫AGI next,算是一个闭门峰会。这个会是刚刚上市的智谱他们组织的。因为是闭门会议,所以我们只看到了一些总结归纳,并没有看到完整的视频。前面有一些演讲,最后有一个圆桌会议,四个人在上面进行讨论。前边咱们讲的这个“暴论”,就是在这个圆桌会议里边出来的。

圆桌会议的四位嘉宾

  • 唐杰:智谱的创始人。他的发言逻辑中充满了矛盾,这种做ToB项目的人很难逻辑自洽的,所以他的发言后边我们会引用的比较少。
  • 杨强:香港科技大学荣休教授,加拿大皇家科学院工程院院士。他站在学术界的角度上,讲的很多东西跟我们日常所熟悉的也是有很大差距的,所以后面引用他的话应该也不多。
  • 姚顺雨:腾讯刚刚从OpenAI挖回来这兄弟,他是CEO总裁办公室首席AI科学家,算是前OpenAI研究员。这哥们是一个绝对的聪明人,很多地方都有独到的见解,逻辑很清晰,但是也很圆滑,不太会踩坑。
  • 林俊旸:这个字我不查还不认识,左边是一个日,不是木——他是阿里巴巴通义实验室、千问的技术负责人。这哥们是个直男,上面那段话就是他说的。很多大实话别人都绕着说,只有他敢直接说。

主题一:中国不做0到1,而擅长做1到100

访谈分为几个主题,我们先说“中国不做0到1,而擅长做1到100”这一段吧。主持人提了一个问题,先问的是姚顺雨,这个问题是什么?在3-5年以后,全球最领先的AI公司是中国团队的概率有多大?从今天的跟随者变成未来的引领者,需要哪些关键条件?

姚顺雨的观点:乐观与现实

姚顺雨还是比较圆滑的,所以上来先说概率还是很高的呀,我很乐观。然后就开始说实话,毕竟是个技术人员嘛。他说任何一个事情一旦被发现,在中国就能够很快的复现,在很多局部做的更好,比如制造业、电动车都是这么干的。

然后姚顺雨提出了大家都知道的症结:第一个光刻机跟算力的瓶颈是不是可以突破?他说我相信可以突破。另外一个说我们也是有很大优势的,我们的优势在于电力优势,我们电很多,而且很便宜。

中美实验室文化的差异

当然了,主持人也不可能就这么放过他,就接着问他说:中国实验室里边的研究文化跟美国有什么区别?这个姚顺雨继续很油滑的在那抹稀泥,他说美国实验室之间的区别比中美实验室之间的还要大一些。

抹完稀泥以后,接着说大实话。他说在中国,大家还是更喜欢做更安全的事情,只要方向被证明了,再难中国人也愿意赌一把。什么意思?他说你看预训练这事搞明白了,那中国人就要冲上去搞。这个东西不是说别人干明白了,你就直接就可以抄的,还有很多细节、很多的技术难关要冲上去解决。但是只要中国人发现美国人走通这条路了,我们就冲上去孤注一掷,把这个事几个月之内搞定。所有没被验证过的事情,是没有人敢上的。

关于“刷分”现象

他也讲到了现在有一些新的方向,所以这些方向中国人基本上是不干的,都等着美国人去验证。而且他讲说中国人比较喜欢刷分,但是刷分现在已经越来越不重要了。

他举了两个正面案例吧,没有举谁喜欢刷分这种反面典型,毕竟智谱的活动嘛,智谱的老板还在上头坐着,你如果点名字的话,这时候会很难看的。所以他讲了:

  • Deepseek:就不太重视刷分这件事,但是大家还是很喜欢使用Deepseek的;
  • Anthropic的Claude:其实很多分数并不高,没有它原来所在的OpenAI的分数高,但是大家依然很喜欢用。

所以刷分这个事其实没那么重要了。


主题二:算力差距与“穷人”的创新

后边就是林俊旸这个直男出来了。当然直男也不傻了,理论上在这个场合是不可以泼冷水的,上来先说:“你们想让我说什么我知道,你在这让我说点难听的,这事有问题。”但是直男还是忍不住要说实话。

算力差距:一到两个数量级

他说美国的算力比中国大一到两个数量级。什么叫大一到两个数量级?几十倍到几百倍的这种差距,差非常非常多。说美国大量的算力投入了下一代的研究当中,中国算力本身就捉襟见肘,交付新产品就占用了绝大部分。

什么叫交付新产品?就是我要出新的模型,这个模型是一定要上线、要开发布会的,比如千问3、Deepseek 3.2,或者马上要出的Deepseek 4。这个东西叫交付产品。而美国人说我们可以实验很多东西,这些东西是不会交付的。OpenAI到底有多少模型他们训练完了以后最后没有给大家端上桌?不知道。中国就是我每次只要是消耗了算力,一定要拿出点什么来,咱们讲的投入产出比,所以这个是有很大差异的。

富人创新 vs 穷人优化

然后他在讲,说创新到底是发生在富人手中还是穷人手里?他说穷人也不是说就不能成功,穷人更多的是在做什么?算法基础设施的联合优化。他说这个事富人基本上是不干的。

什么叫算法基础设施的联合优化?咱们去看Deepseek那些论文,就是我怎么用更少的卡、怎么用更少的时间,能够训练出跟你一样的东西来。人富人说我有的是卡,不费这劲,我直接研究我怎么做出最好的东西来就完事了。

所以这个过程有点像什么?有点像中国油漆工在那刷油漆,人家说你必须要刷10遍。他第一次刷了10遍;第二次刷了9遍,说好像看不出来哈;第三次就刷了8遍,或者是就刷了7遍,看看也差不太多;再下一次刷了6遍,然后被人看出来了,这事不行,那下次我就刷7遍。就中国人好多的这种聪明才智都用在这上了。

关于冒险精神

而且他也讲到了,说年轻人的冒险精神越来越强了,而美国人天生有非常强烈的冒险精神,他希望把更多的算力给年轻人。其实这一点我是没有那么同意的。现在的年轻人到底有多少冒险精神?去看看现在考研考公的这个数量,大家就可以自己去想象。但是年轻人里头总还是有一定比例的人愿意去冒险的吧。

为什么上岁数人就不爱冒险了?很简单,爱冒险的人都在家里头录YouTube,都被淘汰了。所以中国整个的职场环境会把爱冒险的人通通都淘汰掉光,剩下温和的守规矩的人留在里边去循规蹈矩,去做这种确定性的事情。所以这是中国的一个很大的问题。

那主持人发现了直男,那不能放过他呀,接着问他说:“你给个数吧,3-5年后世界最领先的公司是个中国公司的概率到底有多大?”

这哥们想了想说:“20%吧。”

20%已经是非常乐观的数据了,我估计这哥们说这话之前也是咬着后槽牙想了半天,还是得对得起自己良心,所以就给了个20%的数据出来。


主题三:模型分化——ToB 与 ToC

除了这个问题之外,他们还在圆桌会谈里头讲了一些其他的东西,比如说模型分化。模型分化就是不是说所有的模型必须要按一个方向去训练,现在他们也发现不同的模型是有不同的用法的。特别是OpenAI跟Anthropic的竞争以后,他们就说没有一个唯一的正确解。那么怎么来分?就是ToB和ToC。

C端模型:垂直整合与超级APP

说如果是C端的模型的话,是可以做垂直整合的。因为很多人在讲模型及应用,或者叫超级APP,实际上都属于C端的东西,比如ChatGPT,比如豆包,都是有巨大的日活,他把所有的功能都整合在一起。而且这样的模型必须是模型跟产品强耦合进行迭代,就是我每一次升级必须要去升级模型的,你说我光把这个APP给你升级了,这玩意没用的,它是这样的一个架构。

而这里头腾讯明显是一个C端公司,而剩下的甭管是阿里也好,还是智谱也好,都属于是B端公司。

B端模型:智能至上

而B端的模型跟C端就不太一样了。因为C端模型你只要是把产品体验做好了就OK了,其实模型本身并不需要那么聪明;而B端模型就是要往上堆能力了,越智能越好。

Anthropic就属于一个典型案例,只管推出更强大的模型就完了,至于B端的应用是由集成商或者是agent开发商他们去搞定。而且这些人会毫不犹豫的去选择最贵、最好的模型与服务。你比如说有20美金一个月的,有200美金一个月的,那些B端的人一定会毫不犹豫的去选择200美金一个月的。

他说原因很简单:比如说20美金一个月的模型,你解决10个问题里头错5个;而200美金一个月的模型,你解决10个问题里头他只错1到2个。把5个错的答案挑出来,这个成本是非常非常高的;或者说你把这个错误答案直接混到结果里头输出了,这个成本是非常高的。你付10倍的钱去订阅是一点都不亏的。

所以Anthropic是不管这个用户到底有什么需求,我是不是把它从头到尾都满足掉,然后进行垂直整合,它不管这些事,它就是一次一次的憋大模型。我只要把新模型推出来,剩下你们就跟着干就完了,你们去做AI agent,你们去做各种的应用,我只管把模型往前推。而且我做多贵的套餐都有人定。这是一个不同的玩法。


主题四:自主学习、Memory与下一个范式

然后讲到了自主学习和memory,以及下一个范式的问题。

自主学习与平滑过渡

自主学习可能是AI发展的下一个方向,或者说到AGI之前,我们必须要解决的一个问题。就是大模型你不能等着人去训练你,你要自己去不断的往前学习。

其实现在的模型跟服务通常也是在不断变强的,服务能力的提升不再像以前那样必须要发新版本了。原来我们在期待说Deepseek V4、Deepseek R2、GROK4、GROK5,Gemini现在有3了是不是要有3.5?原来我们在每天盼这样的大的产品发布。

他说以后不是这样,以后就是很平滑的在往前过渡。你比如说像Claudecode,或者是其他AI agent的产品,或者是一些服务,他每天都在迭代。包括cursor这些编程工具,每天都在升级,每天都在迭代。我们在使用这些产品的过程中提的各种问题,都会快速的成为产品的新特性,让更多的人去受益。说这就是一个自我学习的过程。

Memory(记忆)的重要性

下一个是memory,也就是记忆。大家一致认为记忆是下一个阶段的发展重点。记忆可以通过整合上下文和环境信息提升用户的体验。这是姚顺雨在讲,因为他们是腾讯的,腾讯里头有大家微信聊天的上下文,有你这么多的聊天记录,有你的朋友圈。那他真的没有比微信更懂你的人了,那如果他把这些内容可以有机的整合到他们的模型里去,那微信去跟普通人聊天真的是无往而不利,让你买什么你就买什么。

为什么举这样的一个案例?因为最终还是要变现嘛。只是现在的memory还没有那么聪明,因为给大模型一大堆信息以后,它很难去确定说我在这一次沟通的过程中到底应该用哪些不用哪些。用多了以后这大模型反而会变傻,因为你输入的TOKEN太多了嘛;如果用的少了,或者说你用错了记忆,那这个可能还不如不用。所以现在这一块肯定是未来的一个重要方向。

而且memory还可以带来持续学习的可能性。前面咱们讲的是自主学习,既然自主学习是一个连续的过程,那我们有这么多的记忆,就可以拿着这些东西让大模型也好、让服务也好,可以持续的学习和进步下去。这两块可能都是渐进式发展,并不会有一个跨越式的提升。

谁将引领下一次革命?

AI前面有两次成功的范式转型:一个是聊天,一个是推理。这两次都是由OpenAI来引领的。那主持人就去问姚顺雨,如果自主学习和memory这有可能成为下一个范式的话,下一个重要的这种革命的话,你认为谁会领导这一次革命?

姚顺雨想了半天说:“大概率可能还是OpenAI。”

并没有说拿了腾讯的offer就说这个事一定是腾讯,估计日子也没那么好过。


主题五:出海与通用 Agent

讲完了这一块以后,他们还讲到了出海。这个还是要从ToC还是ToB讲起。这个里边其实逻辑很难自洽。

逻辑的矛盾

为什么?智谱的老大上来讲说这个ToC很有机会,我们很看好ToC,但其实智谱自己是做ToB的。姚顺雨所在的腾讯明明是一个C端大厂,因为他做微信、做QQ、做游戏嘛,但是他也在努力的说我们要去做ToB的东西,要去做AI智能。这到底是为什么?因为你ToC的话就要去跟豆包去竞争去,大家又打不过他。

然后他们讲到了什么?就是我们的经济环境很好。讲完了这句话以后这又很难圆回来。为什么?如果经济环境很好的话,ToB这一端就会有机会,企业的付费意愿就会很强。但是他们的讲法都是这样的:我们的经济环境很好,而且越来越好,但是我们的企业付费意愿很差。基本上都是按这样的一个逻辑在讲的。就是它的逻辑很难自洽。

通用 Agent 与长尾问题

讲完了ToC、ToB以后,大家就接着往前走,说那怎么办?那出海吧。我们都想去做ToB,那咱们就出海。ToB其实就是去做AI agent,大模型已经有了,我们把这agent挂上就完事了。

这里边就提到了一个另外的概念,就是通用agent。其实现在的所谓AI agent有很多种,有些是我们去拼工作流、去做工作流设计,有些是做提示词的堆叠。但是还有一种就是你给它一个任务,它自动的去完成这种通用任务的。在这林俊旸这个直男就讲了,说这个通用agent套壳到底算不算?他讲了这么个话。当然他也知道这话不能乱讲,他就接着往前讲这个事的魅力就在于解决长尾问题。

说真正头部的问题,就是特别有经济价值的问题,因为有足够多的利益来吸引,所以很多人会冲上去解决;而那些长尾问题其实是没有那么多人会冲上去解决的,所以通用agent还是非常非常的价值的一个方向。

房间里的大象

大家也就讲到这儿就完事了。为什么这话题就停在这儿了?房间里的大象,有人零星提起,但是都不敢深入。这房间里大象是谁?你想出海还做通用agent的,不就是manus吗?没法说呀。你把它提出来,那后边怎么弄?你说到底是审查通过、审查不通过,还是一个什么情况?人家拎桶跑路了,跑新加坡去了,上那边洗白去了,最后还没洗白。这玩意你没法讲。

所以为什么说在出海这个话题上大家都显得很别扭,都觉得ToC有机会但是又都想做ToB,又说国内的经济好但是国内ToB的付费意愿又特别差。出海又没法细聊,出海现在跑的最前头这个排头兵被摁那了。所以他们就显得非常非常的矛盾。


老范的总结与观察

最后总结一下吧,一群中国AI的顶尖大脑,他们开了一次闭门会议。

谁没来?

  • 字节百度没来:和阿里腾讯不是一头的。
  • MINI Max没过来:正在跟智谱这儿别苗头。智谱头一天上市,它可能过了一两天再上市;智谱上去以后跌破发行价,MINI Max直接上来一飞冲天,所以你不能来。
  • Deepseek也没来:Deepseek估计在憋大招。现在传闻今年2月份过春节的时候,Deepseek有可能上V4,还是值得期待一下的。
  • Kimi:前面演讲的时候他说了,但是后边并没有参加圆桌。

原来有这样一故事,说领导生病了,有些下属过来去看望他。人家就问那领导说:“这么多人都来看你,你能记住谁是谁不?”领导说:“谁来了我记不住,谁没来我能记着。”所以咱们刚才讲了谁没来。

什么没说?

下边咱们讲什么话没说。世界模型、空间模型、VLA这些东西都没提,因为这都不是这几家专长的。其实千问自己还是有一点点VLA的,但是大家都没有提这件事情,这个也都属于是方向没有那么明确,大家不愿意在里边投入。具身智能提了一句,也就仅仅提了一句而已。

大家在谈什么?

大家在谈的是当前国内所关注的方向上,美国人做了哪些尝试。不是说我们自己做了哪些,而是美国人做哪些,我们准备后边去往前推哪一块。比如说刚才咱们讲的自主学习、memory,这都是美国人正在努力往前突破的方向。一旦他们在这些方向突破了以后,国内估计会快速跟进。

最后承认中国人不愿意冒险,做那些确定性很低的事情,呼吁了一下要把更多的卡给90后和00后。这里头不是还有一位学界的吗?说我们也要把更多的卡给学界,不要把这些卡都留在企业手里头。

讨论的结果

他们所讨论的这个结果是什么?中国会在美国指明的方向上奋起直追,确实会在一些领域超过美国,特别是我怎么能够在达到同等效果的情况下更省钱,在这块我们一定会超过美国的。其他的只能尴尬而不失礼貌的微笑了。

最后的感悟

看完访谈以后,老范有什么感受?中国不擅长做0到1的创新并不是人的问题,而是缺乏试错容错的环境。上岁数的人敢冒险的都被淘汰了,所以剩下的人只能去做1-100了。

一群顶尖聪明的AI从业者,在小心翼翼的围绕着难以自洽的逻辑,以及不能说的实话,尽可能的表达自己的想法。看完他们的访谈之后,让我想起了马斯克对AI的要求:不能逼AI说谎,否则会出事的。

好,这期就跟大家讲到这里。感谢大家收听,请帮忙点赞、点小铃铛,参加DISCORD讨论群。也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。


背景图片

Prompt:Ultra-detailed luminous watercolor + crisp ink line architectural poster of a Beijing AI company loft open-plan office interior, realistic industrial materials: exposed fair-face concrete slab ceiling, blackened steel I-beams and columns, galvanized cable trays, linear HVAC ducts, large factory grid windows with sheer roller shades, glass partition meeting rooms with acoustic seals, polished concrete floor with sharp glossy reflections, long reclaimed-wood communal tables with aluminum legs, ergonomic task chairs, cable grommets and tidy power rails, minimal ceiling acoustic baffles, a clean LED strip “data ribbon” along a wall in neon cyan (abstract, no readable UI), bright high-key daylight + warm gold pendant practicals + subtle coral specular hits, deep navy gradient only in distant recesses, neon cyan rimlight on edges, crystal-clear atmospheric glow, cinematic wide interior composition, strong subject separation, huge clean negative space for headline banner, medium-wide eye-level 35mm, rule of thirds –no text, watermark, logo, clutter, extra limbs, lowres –ar 16:9 –stylize 120 –chaos 6 –v 7.0 –p lh4so59

❌