普通视图

发现新文章,点击刷新页面。
今天 — 2026年4月23日首页

Elisp 性能优化的六个实战教训

2026年4月23日 08:00
有人用 Elisp 写了一个 Org-mode 静态站点生成器,处理 10000 篇博文的时间从 5 分半压到 1 分 15 秒,热重载单篇只需 7 毫秒。实现过程中踩过的坑和发现的优化技巧,对任何在 Emacs 里处理大量文件的人都有参考价值。本文提取其中的工程实践,用你能在自己项目里直接用的方式讲清楚。 * 只解析你需要的东西 Elisp 里解析 Org 文件的标准方式是调用 =org-element-parse-buffer= 。它的默认行为是完整解析整个 buffer——包括行内标记、链接、脚注,全部递归展开。 但如果你只需要提取文件开头的标题和日期,完整解析就是巨大的浪费。 =org-element-parse-buffer= 接受一个可选的 =GRANULARITY= 参数: - ='headline= :: 只解析标题结构 - ='greater-element= :: 不递归进入大元素内部,只解析顶层 - ='element= :: 解析所有元素但不解析行内对象 - ='object= :: 完整解析(默认) 原文作者只需要标题和日期等元数据,把粒度从默认的 ='object= 改成 ='greater-element= ,单文件解析时间直接砍了一截。这不是微优化——对 10000 个文件来说,每个文件少解析几百个行内元素,累积效果显著。 #+begin_src emacs-lisp ;; 完整解析(慢) (org-element-parse-buffer) ;; 只解析顶层元素(快得多) (org-element-parse-buffer 'greater-element t) #+end_src 选择哪个粒度取决于你需要什么。提取元数据用 ='greater-element= ,需要处理链接和行内标记才用 ='object= 。 * 别让 find-file-noselect 拖慢批量操作 Emacs 有两种方式读取文件内容: 1. =find-file-noselect= —— 正经打开文件,创建一个完整的 buffer 2. =with-temp-buffer= + =insert-file-contents= —— 把文件内容塞进临时 buffer 原文作者一开始选了 =find-file-noselect= ,觉得它更"正确"。然后用 Emacs 内置的性能分析器( =M-x profiler-start= )一看,发现这个函数吃掉了 13% 的 CPU。原因: =find-file-noselect= 会触发文件锁、版本控制查询、major-mode hook、org-persist 缓存写入等一系列交互式操作。对每个文件都来一遍,10000 个文件就是在重复 10000 次不必要的开销。 #+begin_src emacs-lisp ;; 慢:触发完整的 buffer 初始化流程 (org-with-file-buffer filename (org-element-parse-buffer 'greater-element t)) ;; 快:用临时 buffer 直接读内容 (with-temp-buffer (insert-file-contents filename) (org-element-parse-buffer 'greater-element t)) #+end_src 切换到 =with-temp-buffer= 后,10000 篇博文的处理时间从 3 分 44 秒降到 1 分 15 秒。教训:批量处理文件时,用临时 buffer 而不是 =find-file-noselect= 。后者是为交互式编辑设计的,带着整套"官僚系统"。 * 用 cl-progv 隔离全局状态 Emacs 的状态管理建立在全局变量上—— =org-export-with-toc= 、 =org-html-link-home= 等都是全局变量。在同一个进程里处理多个 route 时,一个 route 设置的变量会"泄漏"到下一个 route。 直觉上的做法是用 =let= 绑定: #+begin_src emacs-lisp (let ((org-export-with-toc t)) (opd-route ...)) ;; 这一步只是把 route 配置记下来 ;; 另一个 route (opd-route ...) (opd-export) ;; 真正的导出在这里执行 #+end_src 问题是: =opd-route= 不会立即执行导出,它只是把 route 的配置(输入模式、输出路径、过滤器等)存到一个列表里。真正的 HTML 生成发生在 =opd-export= 被调用的时候——但那时 =let= 的作用域已经结束了, =org-export-with-toc= 的局部绑定已经不存在了。换句话说,你在一个 =let= 块里填了一张表单,但处理表单的人要等到 =let= 块结束之后才看它,那时候表单上写的"特殊要求"已经没人记得了。 那能不能把 =opd-export= 放进 =let= 里?也不行,因为不同 route 需要*不同的*变量值——blog route 要目录( =org-export-with-toc= 为 =t= ),RSS route 不要目录( =nil= )。 =opd-export= 一次执行所有 route,你没法在一个 =let= 里同时给不同 route 设不同的值。 解决方案是用 =cl-progv= ,这个来自 Common Lisp 的宏可以在运行时动态绑定一组变量。每个 route 把自己的变量设置写在 =:env= 属性里,引擎处理到那个 route 时才临时绑定,处理完自动恢复: #+begin_src emacs-lisp (cl-progv '(org-export-with-toc org-html-link-home) ;; 变量名列表 '(nil "http://localhost:8080") ;; 对应的值列表 ;; 在这个作用域里,org-export-with-toc 为 nil ;; org-html-link-home 为 "http://localhost:8080" (org-export-as 'rss)) #+end_src =cl-progv= 接受变量名列表和值列表,在执行 body 期间动态绑定这些变量,执行完后自动恢复。这比手动在每个 lambda 里 =let= 绑定更干净——你可以把变量配置做成数据,从 route 定义里传入,而不需要在每个导出函数里硬编码。 * 让数据形状决定行为,而不是手动标记 原文遇到一个问题:blog route 和 rss route 都匹配 =*.org= 文件,两者都在全局注册表里写入 URL,互相覆盖。最初的解法是加一个 =:canonical= 标记,手动指定哪个 route 有写入权限。 后来发现根本不需要这个标记。关键是观察聚合(aggregate)后数据的形状: - 1:1 route(每个文件对应一个输出):数据的顶层有 =abspath= 属性 - 1:N route(多个文件聚合为一个输出,如 RSS): =abspath= 藏在嵌套列表里 #+begin_src emacs-lisp (defun opd--tree-has-abspath-p (tree path) "递归搜索 Lisp 树中是否包含 (abspath . PATH) 。" (cond ((and (consp tree) (eq (car tree) 'abspath) (equal (cdr tree) path)) t) ((consp tree) (or (opd--tree-has-abspath-p (car tree) path) (opd--tree-has-abspath-p (cdr tree) path))) (t nil))) #+end_src 用数据结构本身的特征来区分行为,而不是引入额外的标记。这是 duck typing 的思想:不问"你是什么",而是看"你长什么样"。消除了一个配置项,也消除了用户忘记设置它导致的 bug。 * 先 profile,再优化 原文最有价值的教训之一:不要猜瓶颈在哪,用 Emacs 自带的性能分析器。 #+begin_src emacs-lisp ;; 启动 CPU profiler ;; M-x profiler-start cpu ;; 执行你的操作 ;; 查看报告 ;; M-x profiler-report #+end_src 原文作者的直觉告诉他瓶颈在字符串模板处理上。profiler 显示真正的罪魁祸首是 =find-file-noselect= (13% CPU)和 =org-persist-write-all-buffer= (12% CPU)。直觉和数据的差距巨大。 性能优化的正确顺序: 1. 先写正确的代码 2. 用 profiler 找到真正的瓶颈 3. 只优化 profiler 指出的热点 这个顺序对任何语言都适用,但在 Elisp 里尤其重要——因为 Elisp 的性能特征和直觉经常不一致。你以为慢的地方可能根本不是瓶颈,真正的热点藏在你不注意的地方。 * 哈希表替代线性扫描 当文件数量从几十个增长到几千个时,线性扫描列表的成本从可以忽略变成不可接受。原文的处理方式很直接:任何需要按文件名查找的场景,用哈希表代替列表。 #+begin_src emacs-lisp ;; 慢:线性扫描,O(n) (member target-file file-list) ;; 快:哈希表查找,O(1) (gethash target-file file-hash-table) #+end_src 原文在路由注册表(registry)、文件缓存(filecache)、依赖图(depcache)三个地方都用哈希表,消除了所有线性扫描。对于 10000 个文件的场景,这个差异是"每个文件多查 10000 次"和"每个文件查 1 次"的差距。 这不是过早优化——当你的数据量明确会达到千级别时,选择哈希表是基本的数据结构选择,就像去超市买东西用购物袋而不是一趟趟用手捧。 * 总结 从这些优化中可以提炼出几条通用的 Elisp 工程原则: 1. *用正确的工具做正确的事* —— 临时 buffer 读文件, =find-file-noselect= 留给交互式场景 2. *只处理你需要的数据* —— =org-element-parse-buffer= 的粒度参数是个宝藏 3. *用 profiler 驱动优化* —— 不要猜,让数据说话 4. 用 =cl-progv= 隔离状态 —— 全局变量是 Emacs 的设计遗产, =cl-progv= 是在批量场景下控制它的有效手段 5. *让数据形状驱动逻辑* —— duck typing 比手动标记更不容易出错 6. *数据量大了就用哈希表* —— 这不是过早优化,是基本的数据结构选择
昨天 — 2026年4月22日首页

Tech Talk | 聚焦智电极限、独立向新而生,斯凯孚汽车硬核破局内卷时代

作为拥有百年历史的全球汽车供应链技术底座,斯凯孚(SKF)始终专注于为全球车企提供卓越的摩擦控制与底层工程解决方案。在汽车行业向电动化、智能化加速迈进,且开发周期被不断压缩的压力测试下,斯凯孚坚持回归工程本质。近期,斯凯孚更是做出了分拆汽车业务的重大战略决策,致力于以更高的业务敏捷度和绝对的专注力,为快速变革的汽车行业提供稳定且强大的技术支撑。

本期节目重点解析了针对新能源电驱及商用车领域打造的几款硬核创新方案,直击高压电驱高频电腐蚀以及高端新能源车轮端超载等核心应用痛点。通过巧妙化解电流泄漏的新一代导电环,以及打破常规的Asymmetric球锥轮毂轴承和追求极致装配良率的HATMU总成,斯凯孚汽车有效解决了在极其严苛工况下的工程难题。

本期《Tech Talk》就带你深入对话斯凯孚汽车亚太区三位核心高管,看看在快节奏的行业变革浪潮中,斯凯孚汽车如何通过向新进化与稳健的技术底座,帮助行业在技术细节里死磕到底,从底层逻辑上实现系统级降本增效,助力车企打造出性能更优、更加可靠的下一代智能电动汽车。

精彩不容错过,赶紧走进本期的《Tech Talk》!

读 Seeing the Whole System

2026年4月22日 08:00
原文:[[https://dzone.com/articles/seeing-the-whole-system][Seeing the Whole System - DZone]] 这篇 DZone 上的文章从一个事故应急响应的真实场景出发,讲透了可观测性(observability)领域最痛的问题:你的监控数据散落在四五个互不相干的系统里,出了事得靠人脑手动拼凑上下文。然后讲了 OpenTelemetry(简称 OTel)怎么从架构层面解决这个问题。 * 你可能也经历过的事故现场 事故响应进行到第 47 分钟,值班工程师已经开了 6 个浏览器 tab:Grafana 看基础设施指标,Splunk 搜应用日志,Jaeger 查链路追踪,还有一个 18 个月前谁搭的 Kibana 面板,还有一个团队 6 周前开通的 Datadog 试用版,但和其他系统完全没有打通。 根因是一个下游依赖在高负载下开始出现响应超时,导致某个没配队列监控的服务队列出现堆积。线索分布在四个互不相干的系统里,工程师得用脑子手动关联。 这个场景不是个例。大多数组织的监控工具链是这么长出来的:A 团队需要指标,上了 Prometheus;B 团队做链路追踪,选了 Jaeger;安全团队要日志聚合,部署了 ELK;新来的工程师喜欢 Datadog,自己开了个试用。每个决定单独看都没错,但最终结果是四五个互不相干的系统,各自只能看到环境的一部分。 当故障跨系统边界传播时(尤其在微服务环境下,经常出现这样的故障),代价就很明显了:不同系统之间的追踪数据无法互通——比如 A 服务用了 Jaeger 埋点,B 服务用了 Datadog 埋点,两个服务的 trace 数据对不上;一个系统的日志时间戳和另一个系统的指标尖峰对不上,还得花时间排除到底是时区不同还是真实的因果顺序。 * OpenTelemetry 是什么 OTel 不是一个工具,而是一套规范(specification)+ API + SDK + Collector。它解决的核心问题是:让应用代码只管发射遥测数据,不关心数据发给哪个后端。 具体来说: 1. 应用代码通过 OTel SDK 埋点,数据通过 =OTLP= (OpenTelemetry Protocol)协议发送 2. Collector 是一个独立的中间服务,负责接收、处理、路由遥测数据 3. 切换后端(比如从 Jaeger 换成 Datadog)只需要改 Collector 配置,应用代码完全不用动 #+BEGIN_SRC yaml :eval no # Collector 最小配置:一个接收器 + 一个处理器 + 一个导出器 receivers: otlp: protocols: grpc: endpoint: 0.0.0.0:4317 processors: batch: timeout: 5s send_batch_size: 1024 exporters: otlp/jaeger: endpoint: jaeger:4317 service: pipelines: traces: receivers: [otlp] processors: [batch] exporters: [otlp/jaeger] #+END_SRC 在 OTel 成熟之前(核心组件大约在 2023 年才达到生产稳定性),给应用做可观测性埋点意味着绑定某个厂商的 agent 或 SDK。想从 A 厂商换到 B 厂商?需要改代码、换库、重新测试。OTel 的厂商无关的设计把这个成本降到了配置变更。 * Collector:最容易用错的组件 原文观察到团队对 Collector 有两种典型的误用: 1. *用得太简单*:把 Collector 当透传管道,原样转发所有数据到后端,不做过滤、采样、富化。配置虽然集中了,但浪费了中间处理层的能力 2. *过度复杂化*:一开始就往 5 个后端同时发数据,加上复杂的处理器链和多套采样策略。6 个月后没人能完整解释这个配置 做得好的团队遵循一个模式:从一个 receiver、一个 processor、一两个 exporter 开始,逐步扩展。Collector 配置放 Git 里,变更走 code review。Collector 本身也当服务对待——有 owner、有 SLO、有值班轮换。 一个实用的 Collector 模式是 *tail-based sampling* (尾部采样):在源头全面埋点,在 Collector 层配置只把 10-15% 的 trace 发到昂贵的存储后端,但保留 100% 的错误和慢请求 trace。该看的问题一个不漏,但摄入成本大幅降低。 * 关联查询:统一遥测最大的价值 统一遥测标准最大的好处不是省钱或换后端方便,而是可以做关联查询——从一个指标异常,跳到解释它的 trace,再跳到定位具体操作的日志行。 OTel 的 trace 上下文传播机制(即请求从 A 服务调到 B 服务时,自动把 trace ID 带过去)让这个关联变成自动的:同一个请求经过的每个服务都用同一个 trace ID 串起来: #+BEGIN_SRC text :eval no # traceparent header 格式:version-trace_id-parent_id-trace_flags traceparent: 00-4bf92f3577b34da6a3ce929d0e0e4736-00f067aa0ba902b7-01 #+END_SRC 如果你的日志也带着这个 trace ID (OTel 的日志埋点会处理),就可以从 trace 中的慢 span 直接跳到该 span 产生的日志行,在一个系统里完成。原文提到一个初级工程师用这种方式做了根因分析,值班负责人估计这在 OTel 迁移前要 40 分钟,实际只用了 9 分钟。 * 还没有解决的问题 - *自动埋点的局限*:OTel 的 auto-instrumentation 对标准 HTTP 调用、数据库查询、gRPC 很好用,但对自定义消息队列、遗留协议、内部框架仍然需要手动埋点——这部分工作很麻烦 - *日志集成滞后*:trace 和 metric 在 OTel 中已经成熟稳定,但日志规范的 SDK 实现仍在追赶。原文建议的渐进策略是:先在现有日志输出中加上 trace ID 和 span ID,等运维图景更清晰后再迁移收集路径 - *Collector 本身需要维护*:处理几十个服务的高基数遥测数据的 Collector 需要容量规划、故障分析、持续运维。不能当"设好就忘"的组件
❌
❌