普通视图

发现新文章,点击刷新页面。
昨天以前INTJer

/dreaming:OpenClaw 的记忆整理机制

2026年4月6日 08:00

/dreamingopenclaw 2026.4.5 发布的新功能,是一套全新的“记忆整理机制”。

OpenClaw 本来的记忆结构其实很朴素,它直接存在工作区里的 Markdown 文件中。

  • MEMORY.md:长期记忆,存放稳定的事实、偏好、重要决策
  • memory/YYYY-MM-DD.md:每日记忆,存放当天的上下文、临时观察、对话过程中的记录
  • DREAMS.md:开启 dreaming 后新增的“梦境日记”,记录 dreaming 的整理过程和摘要

/dreaming真正做的事情是:从 daily memory 里,筛出那些被反复提起、反复召回、跨天仍然重要的信息,再把它们升格进 MEMORY.md

/dreaming 出现之前,OpenClaw 是怎么记忆的?

这是理解这个功能最关键的一步。因为很多人会误以为:“是不是 2026.4.5 之前,OpenClaw 还不会长期记忆?”

答案是否定的。

/dreaming 出现之前,OpenClaw 已经有长期记忆,只是形成长期记忆的方式更直接,也更依赖模型当下的判断。主要有两种路径。

1. 对话过程中直接写入

如果用户明确说:

记住我更喜欢 TypeScript。

或者模型判断某件事明显属于长期有效的信息,比如用户偏好、项目长期背景、关键技术决策,它就可以直接写进记忆文件。

如果它认为这是长期知识,就写到 MEMORY.md;如果它认为这只是当天上下文,就更可能写到 memory/YYYY-MM-DD.md

2. 会话压缩前自动补写

OpenClaw 有一个默认开启的机制,叫 memory flush。当会话接近 compaction,也就是要做上下文压缩之前,系统会先触发一个静默回合,提醒 Agent:

现在快压缩了,如果有值得长期保存的信息,先写进记忆文件。

这一步的作用很现实,防止一些原本还留在上下文窗口里的重要信息,在压缩后丢失。

所以,/dreaming 出现之前,OpenClaw 会记,但更像“当场记录”;缺少一套系统性的“事后复盘和筛选”机制。

/dreaming 解决的是什么问题?

问题不在“能不能记”,而在“记得够不够好”。举个很典型的场景。

假设你这几天一直在和 OpenClaw 讨论同一个问题:

  • 第一天:我们项目 API 先用 REST,不用 GraphQL
  • 第二天:之前 API 架构怎么定的?
  • 第三天:登录接口和 projects 接口当时怎么规划的?

在没有 dreaming 的时候,这段信息当然也可能被记住。

但它是否最终进入 MEMORY.md,很大程度上取决于模型在某一次当下交互里,有没有判断出它足够“长期重要”。

而 dreaming 的逻辑是另一种思路:它不急着在第一次出现时就决定,而是先观察。它会看:

  • 这条信息有没有被反复召回
  • 每次召回时相关度高不高
  • 是不是不同问题都在指向它
  • 是不是跨了不止一天,而不是当天偶然被提了很多次

如果这些信号都足够强,它才会认为:这不是一次性的上下文,而是值得进入长期记忆的稳定信息。

也就是说,dreaming 的价值是:更有依据地决定该存什么。

用一个最直观的例子理解 dreaming

假设 daily memory 里有这样一段内容:

# memory/2026-04-04.md

## API 决策

决定采用 REST,不用 GraphQL。

原因:实现简单、缓存友好、团队熟悉。

接口先做:
- GET /users
- POST /auth/login
- GET /projects/:id

这段内容最开始只是 daily memory,也就是“当天笔记”。

接下来几天里,用户又不断提到相关问题:

  • “之前 API 是怎么定的?”
  • “为什么我们没选 GraphQL?”
  • “登录接口最初是不是 /auth/login?”

每次问这些问题时,memory_search 都会把这段 daily memory 找出来。

dreaming 看到的不是“这段内容出现过一次”,而是:

这段内容在多天、多轮问答里,被反复召回,而且命中很准。

于是它最终可能把这条信息整理后写入 MEMORY.md

## 重要技术决策

- 2026-04-04:项目 API 采用 REST,不使用 GraphQL。
  原因:实现更简单、缓存支持更好、团队更熟悉。

以后再问同类问题,系统就更容易直接从长期记忆里取出这个结论,而不是每次都去翻某一天的流水账。

那什么信息不会被 dreaming 升格?

理解这个边界也很重要。dreaming 不是自动把所有 daily memory 全部搬进 MEMORY.md。如果这样做,长期记忆很快就会被噪音塞满。

通常不会被升格的,是那些一次性、短生命周期、局部上下文型的信息,比如:

  • “今天 3:17 把按钮改成蓝色”
  • “刚才试了一个命令,失败了”
  • “这轮调试先临时注释掉一个函数”

这些信息对当前会话可能有用,但通常不构成长期稳定上下文。所以它们更适合留在 memory/YYYY-MM-DD.md,而不是进入 MEMORY.md

这个功能要不要手动使用?

要手动开启,但开启之后会自动运行。

当前官方文档里,用户常见的控制命令包括:

/dreaming on
/dreaming off
/dreaming status
/dreaming help

也就是说,用户需要先决定:我要不要启用 dreaming。但一旦启用之后,它就不是那种“每次都要自己手动执行一次”的功能了。

开启之后,它是怎么自动运行的?

默认配置里,dreaming 是关闭的:

{
  "plugins": {
    "entries": {
      "memory-core": {
        "config": {
          "dreaming": {
            "enabled": false,
            "frequency": "0 3 * * *"
          }
        }
      }
    }
  }
}

这里最值得关注的是这两个字段:

  • enabled
  • frequency

如果你把 dreaming 开启,而不额外改配置,那么它默认会按下面这个 cron 表达式调度:

0 3 * * *

也就是:每天凌晨 3 点执行一次完整 dreaming sweep。

这次 sweep 会按顺序跑完整个后台流程,内部包含:

  • light
  • REM
  • deep

其中只有 deep 阶段会真正把内容追加到 MEMORY.md

light:先整理短期材料

这一阶段更像“收拾桌面”。系统会先把最近出现过、被召回过的短期记忆整理出来,做基础归并、去重和候选收集,让后面的流程有一份更干净的候选集合可以处理。

你可以把它理解为:先把最近哪些内容值得关注,初步捞出来。

REM:再提炼主题、联系和模式

这一阶段更像“做联想和归纳”。它不只是看某一句话本身,而是会尝试把多条相关的短期线索联系起来,提取出更高层的主题、模式或反思。

比如零散的问题可能都指向同一个长期主题:

  • 用户持续偏好 TypeScript
  • 项目 API 一直围绕 REST 决策展开
  • 某个联系人在多个上下文里重复出现

所以 REM 更像是:把零散片段组织成有意义的主题。

deep:最后决定哪些内容真正进入长期记忆

这是最关键的一步。到了 deep 阶段,系统才会结合前面的召回证据和筛选结果,判断哪些候选项真的值得写入 MEMORY.md

也就是说:

  • light 负责收集和整理
  • REM 负责归纳和提炼
  • deep 负责最终升格

所以这三步像一条逐层收敛的流水线:从短期片段,到主题线索,再到长期记忆。


为什么 dreaming 比旧机制更强?

它把长期记忆的生成,从一次性的主观判断,变成了基于真实召回证据的筛选过程。

在旧机制里,某条信息能不能进入 MEMORY.md,主要取决于模型在某一轮对话中的当场判断。

它可能会判断得很好,也可能会漏掉真正重要的信息,或者把一些只在当下有用的细节过早写进长期记忆。

而 dreaming 的逻辑更像“延迟决策”:先不急着升格,先观察这条信息在真实使用中是否反复被召回、是否跨天仍然重要、是否在不同问题里都发挥作用。等证据足够强,再把它写进 MEMORY.md

这带来几个很具体的改进。

1. 长期记忆会更干净

旧机制更容易把一些一次性细节写进长期记忆,比如临时调试状态、当天的局部修改、很快就会过期的上下文。

dreaming 通过召回频率、相关度、查询多样性等加权信号做筛选,目标是让长期记忆只保留高信号内容,而不是不断膨胀成一个杂乱备忘录。

2. 升格依据会更稳定

以前更像“模型觉得重要就记”。现在更像“这条信息确实在后续多轮使用中证明了自己重要”。

这意味着长期记忆的形成,不再那么依赖某一次对话时模型的即时判断,而更多依赖真实的复用证据。

3. 更容易保留长期模式,而不是一次性细节

什么是长期模式?

比如:

  • 用户长期偏好
  • 项目的核心技术决策
  • 反复出现的人物关系
  • 跨多天仍然会被问到的背景事实

这些内容本来就应该成为长期记忆,但在旧机制里不一定每次都能被及时、准确地升格。dreaming 则更擅长把这类“持续有效的信息”沉淀下来。

4. 更不容易把过期内容写进长期记忆

官方文档提到,promotion 之前会重新读取 live daily note,而不是盲目依赖旧快照。这能降低一种典型风险:

某条内容曾经出现过,但后来被用户修改了、删除了,或者其实已经失效了。

旧机制下,这类信息更容易因为“当时看起来重要”而被写进长期记忆;dreaming 则在流程上更强调 promotion 前再次确认当前版本。

5. 更可观察、更可审计

旧机制很多时候比较黑盒。你知道它记了,但不一定知道为什么记。

而 dreaming 这套流程至少给了更多可观察面:

  • DREAMS.md
  • Dreams UI
  • openclaw memory promote
  • promotion 候选项和阈值配置

这意味着你可以更具体地检查它是怎么筛选出来的。

没有 /dreaming 的 OpenClaw,也能记忆;有了 /dreaming 之后,它开始更像一个会复盘、会沉淀、会筛选长期知识的系统。

它补上是“记忆整理能力”。

再换一种更形象的说法:

  • memory/YYYY-MM-DD.md 像当天的工作笔记
  • memory_search 像翻笔记找线索
  • MEMORY.md 像整理后的长期知识库
  • /dreaming 像晚上帮你把笔记复盘一遍,决定哪些内容值得永久留下

这就是为什么这个功能看起来不张扬,但实际上非常关键。

因为一个真正能长期协作的 AI,不只是要“知道你刚刚说了什么”,更重要的是:它要逐渐知道,什么是值得一直记住的。

wechat2md:将公众号文章转为Markdown

2026年3月15日 08:00

wechat2md 是一个将微信公众号文章一键转换为 Markdown 文件的工具。无论是归档文章、二次编辑,还是迁移到其他平台,它都能帮你快速完成格式转换。

在线体验地址:wechat2md.arminli.com

核心功能

  • 格式转换:将微信公众号的富文本内容转为标准 Markdown,包含标题、段落、粗体、列表、引用等格式

  • 图片处理:通过图床转存,彻底解决微信图片防盗链问题

  • 元数据提取:自动提取文章标题、作者、发布日期,并生成 YAML front matter

多种使用方式

  • Web 界面(最简单,无需安装)直接访问 wechat2md.arminli.com,粘贴链接即可转换。

  • HTTP API(适合集成到自己的工具链)支持 JavaScript、Python 等语言直接调用,方便接入自动化工作流。

AI 在 ICPC world final 战胜人类的一天

2025年9月18日 08:00

人类团队排名:

OpenAI 成绩:

OpenAI 认为最难的 G 题:

对人类来说最难的 C 题(无人通过),AI 只花了几十分钟就解决。

对 AI 最难的 G 题(动用了另一个实验性推理模型,提交 9 次),最强的人类队伍只花了 3 次尝试就解决。

Gemini 把解题代码全部开源,而 OpenAI 没有。我推测有几种可能:

1. 代码/解题方式不够优雅

2. 出现类似与 AlphaGo 与李世石的“神之一手”的“智能涌现”时刻,战略保密

3. 比赛真实使用的其实不是 gpt5,担心公众无法复现

一直以编程能力见长的 Anthropic 没有参赛,可能是因为这个场景对多模态推理有更高的要求,因为 AI 拿到的是 PDF 题面,里面有复杂的图形图标等。

最后一个有意思的地方在于美国没有拿到金牌的大学,联想到美国大学 ICPC 中的华人学生含量和之前的反华运动,不知是不是蝴蝶效应开始了呢。

Mercor 的“虚假” ARR

2025年9月16日 08:00

很遗憾看见大家又被 ARR 这个词误导。

Mercor 自称现在有 5 亿美金的 ARR,远超 Cursor 的增长速度。

Mercor 作为一个人才链接平台/AI 招聘平台/合成数据服务商,5 亿美金是客户付给平台的费用,平台要把其中 70% 左右的费用支付给终端的候选人。

这种模式更像一个电商平台,所以它的 ARR 其实更像是GMV,而不是软件通常说的recurring revenue,实际的收入(runrate)应该在 1.5 亿美金左右。最重要的是这不是 recurring 的,意味着估值模型完全不同!

Fun Fact:Claude Code 使用的所有“思考词”

2025年9月11日 08:00

在 Claude Code 中输入指令后,我们经常看到它用很多相对少见的动词,来表达“我正在努力处理”的 vibe:

实际上,有开发者反编译了安装包,发现 Claude Code 确实会在处理请求时从一个数组中随机挑选一个动词。他们不代表什么含义,只是营造一种 vibe coding 的氛围,让等待不那么无聊。

这个数组大约有五十多个词(几个月前,现在的词应该更多):

`const MESSAGES = [`  `'Accomplishing',`  `'Actioning',`  `'Actualizing',`  `'Baking',`  `'Brewing',`  `'Calculating',`  `'Cerebrating',`  `'Churning',`  `'Clauding',`  `'Coalescing',`  `'Cogitating',`  `'Computing',`  `'Conjuring',`  `'Considering',`  `'Cooking',`  `'Crafting',`  `'Creating',`  `'Crunching',`  `'Deliberating',`  `'Determining',`  `'Doing',`  `'Effecting',`  `'Finagling',`  `'Forging',`  `'Forming',`  `'Generating',`  `'Hatching',`  `'Herding',`  `'Honking',`  `'Hustling',`  `'Ideating',`  `'Inferring',`  `'Manifesting',`  `'Marinating',`  `'Moseying',`  `'Mulling',`  `'Mustering',`  `'Musing',`  `'Noodling',`  `'Percolating',`  `'Pondering',`  `'Processing',`  `'Puttering',`  `'Reticulating',`  `'Ruminating',`  `'Schlepping',`  `'Shucking',`  `'Simmering',`  `'Smooshing',`  `'Spinning',`  `'Stewing',`  `'Synthesizing',`  `'Thinking',`  `'Transmuting',`  `'Vibing',`  `'Working',``]`

Figma 拿了 10 亿美金分手费后,六家机构赚了 10 亿美金

2025年7月11日 08:00

在 Figma 和 Adobe 的收购失败之后,Figma 拿到了 10 亿美金的分手费(收购价格 200 亿美金的 5%),这个数字已经抵消了去年 Figma 的一大部分的开销。

那么在今天的市场环境下,Figma 上市能达到当时的收购金额吗?

我们先看下一些关键指标:

1. Rule of 40: 63% (Q1 2025,46% 收入增长 + 17% 利润率) 超过了目前市值前十公司的中位数(50%)

2. Gross Margin: 88%

3. NDR 132%  

4. 现金:4.63 亿美元,无债务

5. LTM: 821M,按照35821M,按照 35% 的增长明年收入为 ~1.1B

可以看到如果按照头部 15x 估值计算的话,Figma 市值只能达到 170 亿美金左右,但由于上面几个关键指标真的都非常好,不排除能给到 20x 的溢价,这时市值会超过 200 亿美金。

总体来说交易失败后,Figma 并没有受市场情况影响太多,还是能拿到类似于当时的结果。况且在双方谈论收购(2022)的时候,已经过去了市场最疯狂的溢价时刻。

按照 200 亿美金退出计算,将有六家机构收获 10 亿美金以上的收益。

0 销售打造自动化 outbound 获客引擎

2025年6月23日 08:00

见过一些团队 outbound 营销就是人工疯狂 cold mail / cold call… 完全是浪费人力。使用好正确的工具,outbound 可以自动化。

1️⃣确定潜在客户群

选择对产品有过接触的客户最佳,比如试用但未付费的用户,退订的用户,网页访问者或者内容下载者。 

2️⃣丰富客户档案

使用的第一个产品叫做 clay,这个是这两年增长非常快的产品,目前也十亿美金估值。 

它可以根据你提供的用户基本信息(比如只有邮箱或名字)来爬取完整档案(姓名、公司、个人邮箱、工作邮箱等),还能自动检查客户是不是还在这个公司工作,如果不是的话会给出新的联系邮箱。

   

3️⃣个性化邮件内容 

内容需要是个性化的,让用户觉得被重视,比如工作变动、过去的产品使用情况等。比如某个之前的用户换工作后: “看到你以前在公司 A 使用了【产品名】。看来你在公司 B 担任了新的职务。【产品解决的痛点】对你来说还是个挑战吗?” 

这里可以人工写,也可以用 AI 写,但要让用户觉得是来自人类,并且不要超过 40 字尽可能精简。  

4️⃣申请备用域名 

不要直接使用主域名来发邮件,防止主域名进垃圾箱。比如产品名是 Softwarexyz dot com 的话,可以考虑使用 hisoftwarexyz、heysoftwarexyz 和 getsoftwarexyz 等作为邮箱域名。 

用新域名配置 google workspace 邮箱,并连接到 smartlead,在两三周内,它会自动发送电子邮件、回复电子邮件,并来回模拟实时对话,来预热新邮箱。 

每个域名每天发 25-40 封邮件为佳,不能每天发 1000 封。每个域名设置两三个收件箱即可。  

5️⃣自动 outreach 

在 smartlead 中使用短小精悍的邮件模板。 这样做的话回复率在 5%-15%之间,超过了平均 1%-5%的回复率。

outbound meeting 的比例从 5-10% 提升至 20%,销售管道同比增长 15%。

如何获得 Hacker News 首页以提升产品曝光

2025年6月22日 08:00

Hacker News 是全球最大的技术社区之一,是获得早期流量来源的重要获客渠道。

通过将你的产品官网的博客链接分享到 HN 社区,你可以获得大量网站流量、品牌认知,甚至 SEO(因为其他网站会引用头部的 HN 文章)。

根据我的观察,能排名到首页的帖子主要有两类: 

1️⃣时事技术新闻;

2️⃣深入技术研究和分析帖。

如果想重复地使用 HN 来有效获客,我们的方案必须是可复制的、有效的,因此我们选择方案 1️⃣。

➡️ 首先需要确定帖子选题  

选题需要和你的产品领域相关,并且足够细分,比如如果你是一个数据分析的产品,那你的选题可以和数据隐私等相关。  

➡️ 然后设定新闻提醒  

可以通过 google alerts 或 twitter 的关注提醒等方式,这些是比较简单的。

当然复杂的还可以设置成推送到聊天软件上、或用 chatgpt 来给新闻打分,值得发布的再写成博客。  

➡️ 最后是内容加工

直接复制粘贴原新闻肯定是不行的,先引用新闻原文并简要概述,再加上一些背景、上下文和自己的分析,最后总结并可以把话题引入到自己的产品介绍中。

注意这里要十分谨慎,一句话就好,因为你在文章前面已经给读者带来了价值,最后的 self-promotion 要尽可能精简。

整个文章的编写一般要 1-2 小时就可以完成。有一个小技巧是 HN 是允许多次发布的,如果一次被淹没了可以发 2-3 次。

为什么明星产品社区在逃离 Discord 和 Slack

2025年6月19日 08:00

最近发现许多 SaaS 团队正在把用户社区、技术支持与知识库搬回自家站点上的 Discourse 论坛(一个开源的社区论坛)。  

比如 vercel 宣布旗下网站生成产品 v0 的 discord 将关闭,社群将移到网站上。

PhotoRoom 也宣布将产品社区从 Slack 迁移到 discourse 上:

1️⃣Discord 更像“群聊”,消息按时间流动,几天后历史内容就被“刷没”,新人必须重复提问。 而 Discourse 是“结构化讨论”:话题‑回复层次清晰,可把一条对话拆出单独主题,方便后续沉淀与再引用。

2️⃣SEO 与可发现性 Discord 服务器对搜索引擎不可见,而 Discourse 页面天生开放、可被索引,为公司带来长尾搜索流量。

AIPRM 在宣布弃用 Discord 时就把“被搜索引擎收录”列为首要理由。 甚至还有公司用脚本把旧 Discord 聊天历史批量导出到 Discourse,以挽救 SEO 价值。

3️⃣内容持久性与知识管理。

Slack / Discord 用作 FAQ/Wiki 不利于知识的长期保存与复用。而 Discourse 支持“解决方案标记”“内嵌文档模式”等功能,天然适合作为公共知识库,减少重复答疑。

Discourse 是知名的开源社区构建工具,你平时肯定见过使用它构建的社群网站,只是可能不知道具体是使用的哪个产品构建的。我之前也使用过 Discourse 构建过许多社群,非常方便。

当然我认为这也和公司和产品的发展阶段有关:在早期需要更快速、方便的和用户建联并拿到反馈,用于迭代产品;完成 PMF 后的规模化增长,需要降低 CAC 和流失,提升转化,这需要各类知识内容的聚合,使用户尽可能自助转化。

实测最常见做法是“Discord 做高频社群、Discourse 做低频知识库”,通过 bot 把常见问答引流回论坛,减轻客服压力。

FTX 破产时以 20 万美金价格出售了 cursor 股份

2025年6月18日 08:00

FTX 曾通过其交易与投资部门 Alameda Research 在 2022 年 4 月 向 Cursor 的母公司 Anysphere 投入约 20 万美元的种子轮资金;

而在 FTX 破产进入清算后,资产管理人于 2023 年 以同样 20 万美元的原价把这笔股权卖出。 

如今 Anysphere 最新融资估值已达 90 亿美元,这笔被卖掉的股份理论上价值接近 5 亿美元。

其实 FTX 还投资过 BlockFi、Anthropic、Robinhood、BlockFi 等公司,不得不说眼光还不错。

套壳鼻祖 copy.ai 仍在五倍增长

2025年6月17日 08:00

copy ai 是 chatgpt 刚出来时最先火的一波套壳的产品,到现在不但产品没凉,反而还有 5 倍的增长速度。

仔细研究了下,产品场景比最开始明确了不少,围绕企业 GTM 过程中的各种生成场景来展开,而不是无脑的各种文案生成的产品设计。

HeadshotPro 的两种 seo 策略

2025年6月14日 08:00

HeadshotPro 是生成式AI最先火起来的时候比较有名的独立开发者产品,主要功能就是头像照片生成。

1️⃣ 程序化SEO,用关键词➕城市或国家来批量生成大量页面。如 “Professional headshots in San Francisco.” “Professional headshots in Boston.” 

2️⃣围绕一个特定的关键词写大量blog。结果是headshot这个关键词每月就会带来3000的自然流量,并且只花了三个月。

Paypal 初创时期的“极致文化契合”

2025年6月13日 08:00

Max Levchin 在早期 PayPal 曾拒绝录用一位通过所有技术考核的工程师,只因为他在闲聊时说自己喜欢打篮球。  

Levchin 和 Peter Thiel 把 Paypal 定位成一支“技术黑帮”(mafia),强调成员要相互高度相似、能 7×24 投入,以便在残酷的竞争中快速执行。

他们宁愿错过优秀人才,也不冒“文化被稀释”的风险;篮球一词在他看来意味着“社交型、周四晚上要去打球”的生活方式,与昼夜编码的节奏冲突。

如何表达产品价值主张:Retool 的成功经验

2025年6月11日 08:00

低代码产品 Retool 第一版宣传语为 Excel-like, with higher order primitives,但用户几乎没人看懂,也没人回复。

在 cold mail 中,团队把这句话修改为 “build internal tools”,帖子的点击率和邮件回复率开始上升。

其中给拉美独角兽 Rappi CTO 的 cold mail,在 30 分钟内就收到“立刻开会”的回复,团队第一次确信新的表达击中了痛点。最终迭代成今天的版本“Build internal tools fast”,实现 language-market fit。

takeaways

1️⃣ “说结果,不说做法”

第一版描述的是“技术实现”,而非“用户得到的结果”,导致转化率惨淡。用户只关心“我能更快上线内部工具”,而非“高级Excel”或“可视化拖拽”。Retool 把一句难懂的技术理念翻译成一句人人秒懂的结果句,回复率瞬间翻倍。

对任何 B2B SaaS 来说,都应把 tagline 写成 动词 + 结果 + 速度/成本指标,而不是写成技术说明书。

2️⃣ language-market fit要用“cold start”来验证

David 选择cold email + Hacker News作为试金石——陌生人如果都被一句话打动,那才是真的击中需求。

3️⃣ 一句好口号,就是最小化获客成本的“增长飞轮”

Hacker News 二次发布后,Retool 转向了 90%+ 的自然流量。

4️⃣ 品牌一致性

从官网、YC DB、招聘 JD、一线销售 Deck 到客户案例,Retool 坚持同一句“Build internal tools fast”不变。这种一致性让潜在客户在不同触点形成“这家公司就是干这个、而且很快”的单点记忆,缩短了决策链路。

David Hsu 用三年时间,把一句晦涩的技术描述打磨成今天响亮的“Build internal tools fast”。

它提醒我们:一句让用户秒懂并愿意行动的宣传语,不是灵感,而是无数次面对面交流、冷启动测试、数据回馈后的理性产物。

下一次你准备在首页放一句标语时,不妨先问自己:这句话,能让一个完全不认识我的潜在客户,在 30 分钟内回信说“立刻聊聊”吗?

如果答案是“不能”,那就继续改,直到可以为止。

从Photoroom的第一次收购看电商图产品方向

2025年6月10日 08:00

GenerateBanners 是一个只有四个人的团队,为什么被 Photoroom 看上并收购?

看图 2 其实和 Canva 很像,一堆营销图模板。 真正的秘密在图 3 里,原来它是专门为批量场景优化的一个营销图模板产品,同时也支持对应的 API。

GenerateBanners 的创始人也将在 Photoroom 负责 API 团队。 Photoroom 负责把「产品照片」处理得又快又干净,GenerateBanners 让这些照片自动、批量变成带文字、Logo、价格、促销语的「完整广告素材」。

 收购后 Photoroom 可以把两条链路打通,直接向电商和品牌卖一整套“从拍摄到投放”的自动化视觉解决方案。

The Optimist: Sam Altman 与 OpenAI

2025年6月10日 08:00

不太长的一本书,从 Sam 小时候的家庭介绍到今天的 OpenAI:

1️⃣ Sam 小时候非常喜欢王尔德《道林格雷的画像》,这本书被认为是有史以来最伟大的同性小说。

2️⃣ YC 的 Graham 在 google 成立的早期,一直是搜索结果中第一个出现的 paul;直到现在搜索”essays”仍然排名靠前。

3️⃣ Sam 早期合作伙伴评价他”总表现得好像什么都知道,其实并不知道。他的知识水平可能只有 3,但说话的时候让人觉得是 10”。

4️⃣ Sam 在创业做 Loopt 的时候最大的两个心愿:治疗秃头和核聚变;乔布斯对 Loopt 的初版评价非常差。

5️⃣ 2008 金融危机前,Facebook 曾口头以 1.5 亿美元要收购 Loopt,被 Sam 拒绝。红杉 Moritz 评价”这是正确的答案”。

6️⃣ Sam 创立 Loopt 时同时帮助红杉看项目,早期投了 Stripe 1.5 万美金,获得了如今 700 亿美金的 2%。

7️⃣ 在 OpenAI 转型盈利性公司时,两位创始人(Ilya Sutskever 和 Greg Brockman)最初选择了马斯克做 CEO,但后来被 Sam 撬走了。

8️⃣ 在得知 Sam 表面上经营 YC,实际还在 OpenAI 上兼职时,YC 的 Paul 和 Jessica Livingston 非常生气。Jessica Livingston 要求 Sam 二选一。

9️⃣ 十多年来,Sam 逢人就推荐的书是《无穷的开始》(The Beginning of Infinity)。

Agent 产品的 pricing model

2025年4月18日 08:00

方案 1: 每个 Agent 每月固定的价格。

本质就是类比为数字员工,用户算下一个员工和一个 Agent 每月要花多少钱就可以判断了。由于企业的人力预算肯定比软件预算大,这个定价方式的好处是容易转化,但也容易被竞争对手以更低的价格抢走用户。

例如,Harvey 价格方案为每个律师的年费为 300 到 5000 美金。

方案 2: 按行动点的数量计价。

比如一个 Agent 每个月打了 500 个电话,就收 500 次电话的钱。其实就是 SaaS 中的基于使用的定价。这种定价很灵活,适合用量不固定的用户,或者只是想初步试用的用户。

方案 3: 按一个完成的 workflow 计费。

根据已完成的一个工作流计费,而不是根据其中行动点计费。workflow 中的中间结果都是可独立交付的。

方案 4: 基于结果的定价。

说白了就是成功了或效果好才收费,效果不好不收费。比如对于 Zendesk 或 Intercom 来说,Agent 成功关闭一个工单才计费。这是客户想看到的方式,但需要对产品效果非常有信心,风险是可能难以标准化,带来了很多定制需求。我经常看到生成类产品的用户群中对效果不满意而要求退款的用户。

如何选择合适的定价模型?

从替换人类和创造价值两个角度,可以把产品的价值传递和上面的定价模型映射上,当然更取决于用户关心的价值点。

长期来说,基于结果的定价模型很有优势,这给客户带来了巨大的确定性。在软件时代,产品的价值传递更多是提高效率,没有软件敢给用户承诺用户关注的业务结果,如收入增长。但今天已经有一些 Agent 产品使用基于结果的定价模型,并还会越来越多。

真实的定价模型会更复杂,比如 Decagon 让客户自己选择付费方案:按使用量(对话数)付费和按结果付费(Agent 成功时固定费更高,但不成功不收费)

书单推荐 2025.2

2025年2月9日 08:00

去年比较忙,没怎么写作。今年还是希望继续把一些感受和读书分享出来。

Material World

《Material World: The Six Raw Materials That Shape Modern Civilization》

六大材料(沙子、盐、铁、铜、石油和锂)的起源介绍和对社会的影响。今天有芯片战争,但在以前就连玻璃都是国家之间的竞争壁垒。

The Disappearing Act

《The Disappearing Act: The Impossible Case of MH370》

有一段时间沉迷 MH370 的谜底,这是一个可以拍成类似里斯本丸沉没事件的电影素材。在这本书中,调查记者走访了半个地球,一一分析每个阴谋论中的线索,最终得到了自己的推论(虽然也显得不够站得住脚)。

Amazon.com: Focus: The ASML way - Inside the power struggle over the most  complex machine on earth eBook : Hijink, Marc: Kindle Store

ASML,芯片设计(英伟达)和制造公司(台积电)背后真正的大佬。 最大的感受是当建设好极强的护城河与生态后,背后反而形成了一个非常脆弱的芯片供应链。 建议和 Chip War 一起食用。

进入空气稀薄地带:登山者的圣经(珍藏版)》小说在线阅读-首发起点中文网手机端

一个非常沉重的故事:1996年5月攀登珠峰过程中的一次山难,4支登山队中共有12人罹难。对于很多户外爱好者来说,用生命去征服自然是命中注定。

奥尔特曼传

虽然湛庐出的书质量都挺低的,这本书又起了个看似烂书的名字,但实际是非常推荐的一本材料。

奥尔特曼远超常人的 resourceful,平时基本不参与技术管理,只负责招募技术天才,并且从被开除后的众人反映也能看出来。

谷歌的大模型研究明显是超前的。包括之前 Google 一位员工说 AI 具有了直觉,但公司内部一直非常犹豫没有发布产品。正在开发 GPT4 的奥尔特曼得知这个情况后立即发布上一个版本 GPT3.5,成为这场变革关键的转折点。

Somebody to Love: The Life, Death and Legacy of Freddie Mercury by Matt  Richards | Goodreads

皇后乐队主唱传记。作者没有只从人物入手,而是人物成长史和八九十年代艾滋病起源发展史双线并行,最终交织在一起。

正版 House of Huawei 最抵價 : 買書書 BuyBookBook

华为的发展史。作者从公开资料整理了华为的创立历史,以及核心管理层的背景。有意思的是还提到了孟晚舟被软禁时,还是包凡给写了封担保信。还有很多具体内容没法展开介绍了,值得阅读的一本书。

三生万物

感觉是市面上比较少的国企/央企的管理层自传,读起来确实是非常不一样的。宁高宁是三大国企的董事长(华润、中粮、中化),非常庞大的业务范围。

和民企的商业史不同的是,这本书描写的国企董事长仿佛没有那么多艰苦的创业史,讲的更多的是成为董事长后的丰功伟绩。国企董事长的任免、退休也是上面临时通知的,就算你干了几十年干的很好,一个电话就会被调到另一个公司了,这挺像职业经理人的工作方式。

其中提到华润的润字,起名时是源于毛润之的润,这感觉是不是马上就不一样了。

公开变私有:底座模型的定义正在悄悄改变

2025年1月26日 08:00

在 2024 年 10 月,Anthropic 发布了 Sonnet 3.5 的版本,但至今作为 Claude 家族最强大的模型 Opus 还没有对外更新到 3.5 版本。

在 11 到 12 月,不同的多个信源透露出,Anthropic 并没有放弃或中断 Opus 3.5 的训练,而是考虑到其成本,已经在内部被用来构造合成数据,并通过用户数据作为奖励模型,提升 Sonnet 的效果。

因此持续发布更大的、推理成本更贵的 Opus 模型似乎没有意义,如果能够保持 Sonnet 的成本并持续提升 Sonnet 的效果,那么没有必要将 Opus 开放出来。

除此之外将 Opus 3.5 保护起来,还能防止快速被竞争对手超越。今天基本全部的玩家都会蒸馏头部模型,在强大的闭源底座模型更新后,开源社区能通过蒸馏的方式快速追赶上,成本还更低。

有理由相信,OpenAI 内部已经在使用 GPT-5,用来蒸馏出公开的 o1/o3。底座模型的定义正在悄悄改变,用户使用的将是一个更便宜、参数量更少、推理速度更快的产品。

❌
❌