普通视图

发现新文章,点击刷新页面。
昨天以前Peijie's Wiki

两日游背包收纳

作者 lpj
2026年3月22日 08:00

首先,三明治原则穿衣服

随身携带

手机,身份证,小包纸巾

洗漱包

牙刷,牙膏,毛巾,护手霜,剃须刀


最外层

钥匙

中间层

充电宝,充电器

最大层

裤衩,袜子,短袖,酒精湿巾,保温杯

拉链夹层

零钱,一次性保鲜膜套

什么是 AI,什么是大语言模型,缺点分析,以及使用技法和技巧总结

作者 lpj
2026年3月8日 08:00

AI,即 ArtificialIntelligence,人工智能,即所有让机器模仿人类智能的技术

比如:机器人、自动驾驶、图像识别(拍照识物、人脸识别)、语音识别(eg:从前没有接入LLM的Siri/小爱同学/…)推荐算法…


大语言模型,英文名称 LargeLanguageModel,简称 LLM,是 AI 体系下的一个新分支

它能生成我们人类的语言,所以也被称为“生成式大语言模型”

比如:美国公司 OpenAI 研发的 ChatGPT 和中国公司-深度求索研发的 DeepSeek…


LLMs 是怎么模仿和生成我们人类的语言的呢?

以 DeepSeek 为例,你可以把它想像成一个阅读了整个互联网的超级大脑

无论通过说话还是打字等方式,一旦我们人类使用语言向它传递信息

他就会基于统计学和概率论,使用它阅读了的海量文本,根据你给出的这一串字词序列,计算下一个字最有可能是什么的概率

以此一个字一个字地生成,直到生成一段完整的、通顺的回答


由此可见,LLMs 并非真正从情感和物理逻辑上理解了我们人类给它说的话,并非拥有理解力和意识的智慧生命

它的本质还是「计算」,是基于硬件算力,用海量数据训练出来的,能够模仿和生成人类语言的软件


所以,说它是“大”语言模型,主要是因为:1. 依靠的硬件算力大 2. 消耗的电能量大 3. 数据量大…

也所以,LLMs 也有诸多缺点:

  1. 上文说了,它没有理解力,没有意识,不是智慧生命

  2. 如果没有开启实时联网搜索这样的功能,那么它的知识背景就仅限于它的训练数据,它就有可能无法知晓最新知识数据

  3. 它有可能一本正经地胡说八道,这是 LLM 没有完整把握现实世界所导致的现象,这被人们称为“AI的幻觉”


如何尽可能地避免“AI的幻觉”这个问题?

  1. 首先明确,LLMs 终究只是辅助,在重要场景中,需要引入我们人类的审核环节,可要求 LLMs 提供信息的来源,也可让专家/用户进行反馈,以方便我们人类的审核和校正

  2. 当然,你也可以把一个 LLM 的输出,输入给另一个 LLM,让 B 对 A 回答的正确性和合理性进行分析评估和校正,这种 LLM 之间的相互校对有利于减少单一 LLM 错误信息的传播

  3. 使用 LLM 时,撰写高质量的提示词,即提供高质量的输入,具体做法会在下文阐述


作为普通人,我们使用 LLMs 的原则是什么?

我认为你可以把你自己想像成曹操,LLMs 都是你的文臣们

你需要做到:

  1. 不透漏机密

  2. 不轻信任何 LLM 的话、要对任何 LLM 的话有自己的求证和思考

  3. 兼听则明


如何撰写高质量的提示词 ?

首先,一个复杂的问题可以拆分成 n 个小问题,让 LLM 逐个击破

其次,如果你能获得高质量输出的例子,可以让 LLM 模仿

最后,我们来说一下如何编写高质量的提示词:

  1. 编写清晰、充分、引导性强的结构化表达(eg:markdown),结构化能够帮助 LLM 精准辨别哪些文字应当被识别为一个完整的意义单元

  2. 上文说了,你可以把 LLM 想像成大脑,所以你在编写提示词的时候,可以给 LLM 赋予特定的角色,可以让 LLM 只能给出特定范畴的回答

比如你可以让 LLM 是一个有十年从业经历的高级法律顾问,要求它只能给出法律相关的回答

这能让 LLM 身临其境地进一步理解当前需求的场景上下文,以便给出更准确、更符合预期的回答


既然如此,编写高质量提示词能不能总结出来套路/范式/模板/框架?这不就省事了么,也便于引导 LLMs 生成更准确、更符合预期的回答

  1. 5W1H

    • Who
    • What
    • Why
    • When
    • Where
    • How
  2. BROKE

    • Background 说明背景
    • Role 定义角色
    • Objectives 实现什么
    • Keyresult 具体效果
    • Evolve 循环改进(eg: 可以改进输入,可以改进输出,可以让 LLMs 不断重新回答优中选优…)

上述套路/范式/模板/框架的本质就是【高效表达的方法论】


这也太复杂了,既然我不太会写高质量的输入,那就让 LLMs 来写!=> eg: Kimi-提示词专家,是基于 LLM 的智能体(Agent)


在使用诸如 DeepSeek 等 LLM 应用软件的时候,你可能会发现又一个按钮=>深度思考模式,这是啥?

简单来说,LLM 大致分为 2 种类型,即:指令型 & 推理型,深度思考模式调用的是推理型 LLM

指令型 LLM 聪明又听话,它使用便捷,工作高效,适用于大多数规范性任务,比如 DeepSeek_V3,但它对提示词的依赖程度高

推理型 LLM 同样聪明,但尤其擅长分析推理,显得没那么听话,适用于分析推理、创意思考等任务,比如 DeepSeek_R1、Kimi_1.5、…,它对提示词的依赖程度相对较低


接下来聊聊 Agent

广义上的 Agent:任何能感知环境、做出行动、达成目标的东西

比如:人、机器人、游戏里的NPC、自动驾驶汽车、甚至细菌、动物、…

只要满足:感知 → 思考/决策 → 行动 → 达成目标,就是广义上的 Agent


狭义上的 Agent:就是现在常用的各种AI小助手,比如支付宝里面的理财助理「蚂小财」,是以 LLM 为大脑,以各种工具为手臂,以循环为模式的任务执行系统

特点:有目标、能思考、能规划、能调用工具(eg:用软件、查资料、写代码、发消息、…)、能自动完成事情,不用你一步步指挥

比如:你说“帮我写一份周报,再发给领导”,它自己理解、查数据、写内容、检查、发送

这就是狭义上的 Agent

  • 爆火的通用智能体:Manus
  • 字节旗下的通用智能体:扣子空间:https://www.coze.cn/ 提供了一些很好的提示词模板;也允许我们自定义提示词模板,保存到提示词模板个人仓库里,便于复用

未来的 Agent:像真人助理一样,能独立负责一整个领域、长期帮你做事,一个 Agent 就能顶一个私人助理/员工/专家

比如:

  • 帮你管工作、管生活、管财务、管健康
  • 自动帮你谈判、规划、学习、社交

做 PPT 用 AI

  • Kimi-PPT助手(Agent)
  • aippt.cn支持自定义PPT模板
  • WPS love AI: https://ai.wps.cn

写公文用 AI

原则:

  • AI 的作用不是替你写出文稿

    • 而是帮你减轻诸如【搜索信息,改写,扩写,缩写,…】等重复性劳动
    • 帮助你发散思维,做你的智囊团
    • 而你作为真正的主角,要在脑海里有【好公文】的样子,并指挥 AI 和你一起朝着正确的方向努力
  • 考虑到数据的安全性,处理涉密文件应使用本地部署的大模型

  • 软件推荐:秘塔、纳米AI搜索


知识扩展

知识库

  • 知识库是一系列文档的集合,能够存储,管理、检索大量的知识数据
  • 是智能体的重要信息扩展来源和知识支撑,能帮助智能体在回答问题时提供准确和详细的答案
  • 能有效降低AI幻觉
  • 腾讯的知识库应用:ima

工作流

  • 在 Agent 中,支持通过可视化的方式,对【大语言模型、插件、代码块、…】等功能进行组合
  • 来确保系统可以高效、准确地执行复杂的业务流程

(完)

macOS 里关于“名字”的那些事

作者 lpj
2026年2月9日 08:00
1
2
3
4
5
6
7
8
9
10
11
12
# System Configuration Utility

scutil
--get NAME
--set NAME

NAME:
ComputerName: Mac 给人看的名字: 系统设置=>通用=>关于本机=>名称
LocalHostName: Mac 在局域网里的网络名: 系统设置=>通用=>共享=>本地主机名
HostName: Mac 给 Shell 看的内核名,run command `hostname` to show,NO GUI

# Looking fo help? run `tldr scutil`

拔智齿后的食谱

作者 lpj
2026年1月24日 08:00

流食

五谷杂粮糊

黄豆、红豆、黑豆、薏米、花生 => 豆浆机 => 放凉

蛋花汤

一碗水、俩鸡蛋、食用盐、生抽、香油 => 放凉

香蕉牛奶饮

一根香蕉一杯奶 => 豆浆机 => 放凉

凉拌嫩豆腐

一盒嫩豆腐,放生抽食用

小米稀饭

小米、白薯、燕麦 => 煮粥 => 放凉

黑芝麻杂粮糊

现成的黑芝麻糊、五谷杂粮 => 豆浆机 => 放凉

青食钙奶饼干泡牛奶

四片 + 一袋牛奶 => 微波炉 => 温温地即可

软质食物

土豆泥、红薯泥、南瓜泥、山药泥、胡萝卜泥

荞麦面条、大米、杂粮豆浆


肉蛋堡、青椒碎末炒鸡蛋碎末、绿豆饼、红豆饼

黑芝麻糊 + 红豆 + 扁桃仁 => 豆浆机 => 放温

理解并应用生成式(大)语言模型(LLM),提升职场人士工作效能

作者 lpj
2026年1月15日 08:00

LLM 的本质

LLM => Large Language Model => 大语言模型

你可以把它想象成一个通过阅读整个互联网而成为“文字接龙”世界冠军的超级大脑。

  • 你输入 → 就像给出了接龙的开头几个字。
  • 它输出 → 它根据从海量文本中学到的“下一个词最可能是什么”的概率,一个字一个字地接下去,直到生成一段完整的、通顺的回答。

总结来说,大语言模型是一个用海量数据和算力训练出来的、能够模拟和生成人类语言的巨型概率模型,是一个用数据和数学模拟语言规律的复杂函数。它功能强大且通用,但本质上仍是基于统计规律的“模式大师”,而非拥有理解力和意识的智能体。

  • “大” 是它当前最突出的特征,体现在三个方面:

    1. 数据大:训练数据来自整个互联网,规模以万亿词汇计。
    2. 参数大:模型内部的“知识连接点”多达数百亿至数万亿个。
    3. 算力大:训练和运行需要巨大的计算资源。
  • 局限:

    • 知识有时效性:知识截止于训练数据,无法知晓最新事件(但是可以联网搜索,比如腾讯元宝就有这个功能)
    • 不理解真实世界:它处理的是文本符号和统计规律,而非真实世界的物理逻辑和情感。
    • AI 的幻觉,详见下文

LLM:eg:deepseek 的用法技巧

撰写高质量输入(提示词)的技巧

  • LLM 的本质是一个输入输出程序,这意味着:

    • 【结构化的(eg: markdown)、表达清晰充分的、引导性强的】输入(即:好问题),能获得更棒的输出(good question can get good answer)
    • 结构化能帮助 LLM 精准辨识:对于输入,哪些部分应当被识别为一个完整的意义单元
  • 赋予 LLM 特定的角色 & 约束其回答范畴(即:规则限制,eg:让其只能给出法律相关的回答)

    • 这能让 LLM 身临其境地充分理解当前需求的场景上下文,以便给出更准确、更符合预期的内容
  • 复杂问题可拆解成 n 个小问题,让 LLM 逐个击破

  • 可给 LLM 提供高质量输出的例子,让其模仿

既然如此,编写高质量输入能不能总结出来套路/范式/模板/框架?这不就省事了么,也便于引导 AI,产出更准确、更符合预期的内容

  1. 5W1H

    • Who
    • What
    • Why
    • When
    • Where
    • How
  2. BROKE

    • Background 说明背景
    • Role 定义角色
    • Objectives 实现什么
    • Keyresult 具体效果
    • Evolve 循环改进(eg: 可以改进输入,可以改进输出,可以让 AI 不断重新回答优中选优…)

上述套路/范式/模板/框架的本质就是【高效表达的方法论】

这也太复杂了,既然我不太会写高质量的输入,那就让 AI 来写!

AI智能体: eg: Kimi-提示词专家

AI智能体

  • https://www.coze.cn/
  • coze 平台提供了一些很好的提示词模板;也允许我们自定义提示词模板,保存到提示词模板个人仓库里,便于以后复用。
  1. 赋予 LLM 特定角色(编写提示词)
  2. 插件(第三方工具集)
  3. 知识库
    • 知识库是一系列文档的集合,能够存储,管理、检索大量的知识数据
    • 是智能体的重要信息扩展来源和知识支撑,能帮助智能体在回答问题时提供准确和详细的答案
    • 能有效降低AI幻觉
    • 腾讯的知识库应用:ima
  4. 记忆系统
    • 人类的记忆

      • 感官记忆
        • 视觉记忆
        • 听觉记忆
        • 触觉记忆
      • 长时记忆
        • 显性的、陈述性的记忆
          • 语义记忆(概念、事实、…)
          • 外显记忆(生活事件)
        • 隐性的、程序性的记忆(无意识、技能)
      • 短时记忆(工作记忆)
    • 对应到AI的记忆

      • 短时记忆:上下文学习,短暂且有限,因受到transformer架构的上下文窗口长度的限制
      • 长时记忆:智能体在查询时可关注的外部存储,可通过快速检索进行访问
      • 感官记忆:对原始输入(包括文本、图像或其它模态)的嵌入表示
  5. 工作流
    • 在 AI Agent 中,支持通过可视化的方式,对【大语言模型、插件、代码块、…】等功能进行组合,
    • 来确保系统可以高效、准确地执行复杂的业务流程
    • 这就是工作流
  • 爆火的通用智能体:Manus
  • 字节旗下的通用智能体:扣子空间

总结

LLM -> 提示词工程 -> 工作流(链式调用)-> 智能体(广义上的)-> 多智能体系统

未来的 AI 智能体

  • 即:狭义上的 AI 智能体
  • 以 LLM 为大脑,以工具为手臂,以循环为模式的任务执行系统

DeepSeek 的深度思考模式是什么鬼?

深度思考模式调用的是【推理型模型】,与【指令型模型】不同

  • 指令型模型,对提示词的依赖程度高,好的提示词,效果立竿见影,eg: DeepSeek V3
    • 聪明又听话,高效又便捷,适合大多数任务,即规范性任务
  • 推理型模型,对提示词的依赖程度低,eg: DeepSeek R1, Kimi1.5 …
    • 聪明但没有那么听话的分析推理官,适用于创意思考、分析推理、…

深度思考模式下,编写高质量输入的套路/范式/模板/框架

  1. 背景信息:AI 需要了解上下文
  2. 直接需求:注意结构化(eg: markdown)
  3. 约束条件

有时候 AI 会一本正经地胡说八道?

即:AI 生成看似可信、但实际上不准确、虚构或与事实不符的内容,就像人类的幻觉一样,这是 AI 对现实世界理解不完整所导致的现象

这被称为“AI的幻觉”

如何从应用层面尽可能地解决 AI 的幻觉?

  1. 提供尽可能具体清晰的输入,避免模糊或者有歧义的表述
  2. 明确限制 AI 的回答范畴,这能避免 AI 在回答的过程中引入不相关的内容,比如可以限定 AI 只能给出法律范畴内的回答
  3. 必要时,可以要求 AI 提供信息来源或出处,以便我们后续的核实和验证
  4. 还可以将一个 AI 给出的回答作为输入,输入给另一个 AI,让第二个 AI 对第一个 AI 的回答的正确性和合理性进行评估和矫正,这种 AI 之间的相互校对有利于减少单一 AI 错误信息的传播
  5. 在一些重要场景中,必要时需要引入我们人类的审核环节,可以通过专家反馈或者用户反馈,对 AI 的输出进行定期审查和矫正
  • 【AI 终究只是一个辅助】

日常怎么跟 AI 打交道?

  • 想像成你自己是曹操,AI们都是你的文臣/军师
    • 你要做到【兼听则明、不轻信AI的输出、要有自己的思考、不透漏机密】

AI-PPT

全套快速制作

  • AI智能体: eg: kimi-PPT助手
  • 部分网站/应用提供自定义PPT模板的功能: eg: https://www.aippt.cn/

单页快速美化

LLM 赋能公文处理

AI工具补充:秘塔、纳米AI搜索

大模型本地化部署,以处理涉密文件(这是考虑到数据安全的做法)

一:信息搜集

  1. 注意信息来源可信度,通常来说可信度较高的信息来源有:政府网站、党报官媒、期刊论文(CSSCI期刊>核心期刊>普通期刊)
  2. 自己要对所得信息的(真实性、有效性、正确性、…)有自己的判断和见解

二:分析处理(擅长批量)

三:文本生成

  • AI 的作用不是替你写出文稿
    • 而是帮你减轻诸如【搜索信息,改写,扩写,缩写,…】等重复性劳动
    • 帮助你发散思维,做你的智囊团
  • 而你作为真正的主角,要在脑海里有【好公文】的样子,并指挥 AI 和你一起朝着正确的方向努力

学习生成式人工智能,提升央国企职工的应用能力

作者 lpj
2026年1月15日 08:00

生成式-大语言模型(LLM:eg:deepseek)的用法技巧

撰写高质量输入(提示词)的技巧

  • LLM 的本质是一个输入输出程序,这意味着:

    • 【结构化的(eg: markdown)、表达清晰充分的、引导性强的】输入(即:好问题),能获得更棒的输出(good question can get good answer)
    • 结构化能帮助 LLM 精准辨识:对于输入,哪些部分应当被识别为一个完整的意义单元
  • 赋予 LLM 特定的角色 & 约束其回答范畴(即:规则限制,eg:让其只能给出法律相关的回答)

    • 这能让 LLM 身临其境地充分理解当前需求的场景上下文,以便给出更准确、更符合预期的内容
  • 复杂问题可拆解成 n 个小问题,让 LLM 逐个击破

  • 可给 LLM 提供高质量输出的例子,让其模仿

既然如此,编写高质量输入能不能总结出来套路/范式/模板/框架?这不就省事了么,也便于引导 AI,产出更准确、更符合预期的内容

  1. 5W1H

    • Who
    • What
    • Why
    • When
    • Where
    • How
  2. BROKE

    • Background 说明背景
    • Role 定义角色
    • Objectives 实现什么
    • Keyresult 具体效果
    • Evolve 循环改进(eg: 可以改进输入,可以改进输出,可以让 AI 不断重新回答优中选优…)

上述套路/范式/模板/框架的本质就是【高效表达的方法论】

这也太复杂了,既然我不太会写高质量的输入,那就让 AI 来写!

AI智能体: eg: Kimi-提示词专家

AI智能体

  1. 赋予 LLM 特定角色(编写提示词)
  2. 插件(第三方工具集)
  3. 工作流
  4. 记忆系统
  5. 知识库

DeepSeek 的深度思考模式是什么鬼?

深度思考模式调用的是【推理型模型】,与【指令型模型】不同

  • 指令型模型,对提示词的依赖程度高,好的提示词,效果立竿见影,eg: DeepSeek V3
    • 聪明又听话,高效又便捷,适合大多数任务,即规范性任务
  • 推理型模型,对提示词的依赖程度低,eg: DeepSeek R1, Kimi1.5 …
    • 聪明但没有那么听话的分析推理官,适用于创意思考、分析推理、…

深度思考模式下,编写高质量输入的套路/范式/模板/框架

  1. 背景信息:AI 需要了解上下文
  2. 直接需求:注意结构化(eg: markdown)
  3. 约束条件

有时候 AI 会一本正经地胡说八道?

即:AI 生成看似可信、但实际上不准确、虚构或与事实不符的内容,就像人类的幻觉一样,这是 AI 对现实世界理解不完整所导致的现象

这被称为“AI的幻觉”

如何从应用层面尽可能地解决 AI 的幻觉?

  1. 提供尽可能具体清晰的输入,避免模糊或者有歧义的表述
  2. 明确限制 AI 的回答范畴,这能避免 AI 在回答的过程中引入不相关的内容,比如可以限定 AI 只能给出法律范畴内的回答
  3. 必要时,可以要求 AI 提供信息来源或出处,以便我们后续的核实和验证
  4. 还可以将一个 AI 给出的回答作为输入,输入给另一个 AI,让第二个 AI 对第一个 AI 的回答的正确性和合理性进行评估和矫正,这种 AI 之间的相互校对有利于减少单一 AI 错误信息的传播
  5. 在一些重要场景中,必要时需要引入我们人类的审核环节,可以通过专家反馈或者用户反馈,对 AI 的输出进行定期审查和矫正
  • 【AI 终究只是一个辅助】

日常怎么跟 AI 打交道?

  • 想像成你自己是曹操,AI们都是你的文臣/军师
    • 你要做到【不透漏机密、不轻信AI的输出、兼听则明、要有自己的思考】

AI-PPT

全套快速制作

  • AI智能体: eg: kimi-PPT助手
  • 部分网站/应用提供自定义PPT模板的功能: eg: https://www.aippt.cn/

单页快速美化

AI-公文写作

1-AiLearning:生成式大语言模型(LLM:eg:deepseek)的用法技巧

作者 lpj
2026年1月5日 08:00

撰写高质量输入的一些技巧

LLM 的本质是一个输入输出程序软件体,这意味着:

结构化(eg:markdown)表达充分而清晰、具备强引导性的输入,能获取更棒的输出(good question can get good answer)

结构化(eg:markdown)能够帮助 LLM 精准辨识:对于输入,哪些部分应当被识别为一个完整的意义单元
  1. 让 LLM 软件体“身临其境”地理解某一具体需求的场景上下文,以便给出更棒的输出

    实操步骤:
    赋予 LLM 特定角色,约束 LLM 的回答范畴(也可理解为规则限制,比如让其只能给出法律相关的回答)

  2. 给 LLM 提供高质量输出的例子,让其模仿

  3. 分治法:复杂问题可拆解成 n 个小问题,让 LLM 逐个击破

生成式大语言模型(LLM:eg:deepseek)用法技巧

作者 lpj
2026年1月5日 08:00

撰写高质量输入的一些技巧

LLM 的本质是一个输入输出程序软件体,这意味着:

结构化(eg:markdown)表达充分而清晰、具备强引导性的输入,能获取更棒的输出(good question can get good answer)

结构化(eg:markdown)能够帮助 LLM 精准辨识:对于输入,哪些部分应当被识别为一个完整的意义单元
  1. 让 LLM 软件体“身临其境”地理解某一具体需求的场景上下文,以便给出更棒的输出

    实操步骤:
    赋予 LLM 特定角色,约束 LLM 的回答范畴(也可理解为规则限制,比如让其只能给出法律相关的回答)

  2. 给 LLM 提供高质量输出的例子,让其模仿

  3. 分治法:复杂问题可拆解成 n 个小问题,让 LLM 逐个击破

混音原理,Linux混音实操,有线麦克风录音+混录系统BGM+耳返监听

作者 lpj
2025年12月12日 08:00

背景知识:
在Linux音频系统中,“输出设备” = 这个设备可以接收声音,然后播放出来,并非声音的生产者,它只是声音的播放者
而“输入设备”负责采集声音,是声音的起点,声音从输入设备开始传播

如此一来,就不难理解TUI工具pulsemixer的output标签下的内容,output即输出设备,下含
1.有线麦克风(因为我的这个麦克风有用于播放声音的3.5mm耳机孔,我的这个麦克风可以接收声音然后播放出来,所以是输出设备)
2.电脑内置声卡(能接收声音然后播放<无论是接耳机还是接扬声器>,当然是输出设备)
3.虚拟混音池(接收音乐播放器的声音、接收麦克风的声音;并且能播放给录音软件等物件儿;当然是输出设备)

也不难理解TUI工具pulsemixer的input标签下的内容,input即输入设备,下含
1.有线麦克风
2.电脑内置声卡
~~
每个输出设备都有一个对应的监听口,这些监听口都是输入设备,即Monitor of …
简言之:每个“喇叭”都有个“窃听器”,录音软件只需要接窃听器,就能录到喇叭正在播放的声音

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
#!/bin/bash

# =======================================
# 音乐(电脑播放的)-> 流入水池,即:采集BGM
#
# 你的人声 -> 流入水池,即:采集人声
#
# 水池有俩出水口:
#
# 出水口A -> 录音软件录音,即:同时录到BGM和人声
#
# 出水口B -> 耳返监听,即:同时听到BGM和人声
# =======================================

echo "=== 查找音频设备 ==="

UGREEN_IN=$(pactl list short sources | rg input | tail -1 | awk '{print $2}')
echo "你的输入设备:$UGREEN_IN"

PC_OUT=$(pactl list short sinks | rg "alsa_output" | head -1 | awk '{print $2}')
echo "你的输出设备:$PC_OUT"

pactl unload-module module-null-sink 2>/dev/null
pactl unload-module module-loopback 2>/dev/null

echo "=== 创建虚拟混音池 ==="
pactl load-module module-null-sink sink_name=record_pool
echo "=== 配置音频流 ==="

pactl set-default-sink record_pool
pactl load-module module-loopback source="$UGREEN_IN" sink=record_pool latency_msec=5
pactl load-module module-loopback source=record_pool.monitor sink="$PC_OUT" latency_msec=5

echo "✅配置完成!"
echo "在 Simple Screen Recorder 中:"
echo "1. 勾选 'Record audio'"
echo "2. Source 选择: 'Monitor of record_pool......'"
echo "3. 开始录制"

注意:latency_msec=5 是指明的低延迟参数,因为是软件实现的监听

药品库存

作者 lpj
2025年10月25日 08:00

请注意药品有效期 & 药品性状

药品名称数量有效期至
洛索洛芬那片1盒2027-11
复方氨酚烷胺片2片2027-12
复方对乙酰氨基酚片1盒2029-02
连花清瘟颗粒4顿2027-01
麝香痔疮栓1盒2026-10
复方嗜酸乳杆菌片1盒2026-09
荜铃胃痛颗粒1盒2027-02
头孢克肟片4粒2026-06
马来酸曲美布汀分散片7/20片2026-07
泮托拉唑钠肠溶片1盒2026-06
醋酸地塞米松片1盒2028-06
<++><++><++>

pacman

作者 lpj
2025年6月28日 08:00
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
pacman -S <package_name>
有一定风险!!!
有可能静默安装旧包
有可能安装成最新包,但静默安装旧依赖

pacman -Sy 刷新本地数据库
pacman -Syy 强制!刷新本地数据库
如果直接跟包名,仍然有风险,比如假设你的系统中安装了libvpx-1.14,当你执行pacman -Sy firefox,此时系统会直接安装最新版firefox和libvpx-1.15(最新版),但是你的系统中的ffmpeg依赖libvpx-1.14,此时依赖链断裂,系统崩溃

pacman -Su
基于旧数据库升级包
有一定风险!!!
有可能静默升级成旧包
有可能升级成最新包,但安装了旧依赖
如果跟包名,基于旧数据库升级指定包,就更有风险了,毕竟上面基于新数据库升级指定包都有风险

pacman -Syu
刷新本地数据库然后更新所有软件包(更新系统)
pacman -Syu <package_name>
这是安装软件包的标杆做法

---

pacman -R
卸载包,保留所有依赖和配置文件

pacman -Rs
卸载包,卸载无用依赖

pacman -Rsc
卸载包,卸载无用依赖,卸载配置文件

---

-Q 查询所有已安装的包
-Qd 仅查询依赖(dependence)
-Qdt 仅查询独立的依赖(dependence independent)
-Qdtq 仅查询独立的依赖(dependence independent)q for --quiet 仅显示包名,不显示版本号
-Qs ,关键词,本地查询

---

-Ss 关键词,联网查询
-Ss '^package_name$',精准匹配包名

chinese-input-method-setup

作者 lpj
2025年6月15日 08:00

与时俱进,用fcitx5

1
2
3
4
5
6
7
8
9
10
11
12
sudo pacman -Syu fcitx5-im
sudo pacman -Syu fcitx5-chinese-addons
sudo pacman -Syu fcitx5-pinyin-zhwiki

sudo vim /etc/environment
# Add then :wq
GTK_IM_MODULE=fcitx
QT_IM_MODULE=fcitx
XMODIFIERS=@im=fcitx

# 使用i3wm,需在~/.config/i3/config文件中添加一条配置信息exec fcitx5 -d
# 使用sway,需在~/.config/sway/config文件中添加一条配置信息exec fcitx5 -d,注意配置文件先从/etc/sway/config拷贝过来一份再修改

重启系统,使用fcitx5-configtool添加中文输入法,使用ctrl+space进行输入法的切换

chinese-input-method-setup-on-i3wm

作者 lpj
2025年6月15日 08:00

与时俱进吧,用fcitx5

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
sudo pacman -S fcitx5-im
sudo pacman -S fcitx5-chinese-addons
sudo pacman -S fcitx5-pinyin-zhwiki

sudo vim /etc/environment
# Add then :wq
GTK_IM_MODULE=fcitx
QT_IM_MODULE=fcitx
XMODIFIERS=@im=fcitx

vim ~/.config/i3/config
# Add then :wq
exec fcitx5 -d

reboot

ctrl+space


1
2
3
4
5
6
7
8
9
10
11
12
13
14
sudo pacman -S ibus
sudo pacman -S ibus-libpinyin

sudo vim /etc/environment
# Add then :wq
GTK_IM_MODULE=ibus
QT_IM_MODULE=ibus
XMODIFIERS=@im=ibus

vim ~/.config/i3/config
# Add then :wq
exec ibus-daemon -rdx

reboot
1
ibus-setup

alt+space

❌
❌