怎么抢高铁票
可以买长乘短
大站票多
抢直达车,多刷新下页面,多点点,网络拥塞,又可能能挤进去
直达车无,买中转
候补直达车
可以买长乘短
大站票多
抢直达车,多刷新下页面,多点点,网络拥塞,又可能能挤进去
直达车无,买中转
候补直达车
AI,即 ArtificialIntelligence,人工智能,即所有让机器模仿人类智能的技术
比如:机器人、自动驾驶、图像识别(拍照识物、人脸识别)、语音识别(eg:从前没有接入LLM的Siri/小爱同学/…)推荐算法…
大语言模型,英文名称 LargeLanguageModel,简称 LLM,是 AI 体系下的一个新分支
它能生成我们人类的语言,所以也被称为“生成式大语言模型”
比如:美国公司 OpenAI 研发的 ChatGPT 和中国公司-深度求索研发的 DeepSeek…
LLMs 是怎么模仿和生成我们人类的语言的呢?
以 DeepSeek 为例,你可以把它想像成一个阅读了整个互联网的超级大脑
无论通过说话还是打字等方式,一旦我们人类使用语言向它传递信息
他就会基于统计学和概率论,使用它阅读了的海量文本,根据你给出的这一串字词序列,计算下一个字最有可能是什么的概率
以此一个字一个字地生成,直到生成一段完整的、通顺的回答
由此可见,LLMs 并非真正从情感和物理逻辑上理解了我们人类给它说的话,并非拥有理解力和意识的智慧生命
它的本质还是「计算」,是基于硬件算力,用海量数据训练出来的,能够模仿和生成人类语言的软件
所以,说它是“大”语言模型,主要是因为:1. 依靠的硬件算力大 2. 消耗的电能量大 3. 数据量大…
也所以,LLMs 也有诸多缺点:
上文说了,它没有理解力,没有意识,不是智慧生命
如果没有开启实时联网搜索这样的功能,那么它的知识背景就仅限于它的训练数据,它就有可能无法知晓最新知识数据
它有可能一本正经地胡说八道,这是 LLM 没有完整把握现实世界所导致的现象,这被人们称为“AI的幻觉”
如何尽可能地避免“AI的幻觉”这个问题?
首先明确,LLMs 终究只是辅助,在重要场景中,需要引入我们人类的审核环节,可要求 LLMs 提供信息的来源,也可让专家/用户进行反馈,以方便我们人类的审核和校正
当然,你也可以把一个 LLM 的输出,输入给另一个 LLM,让 B 对 A 回答的正确性和合理性进行分析评估和校正,这种 LLM 之间的相互校对有利于减少单一 LLM 错误信息的传播
使用 LLM 时,撰写高质量的提示词,即提供高质量的输入,具体做法会在下文阐述
…
作为普通人,我们使用 LLMs 的原则是什么?
我认为你可以把你自己想像成曹操,LLMs 都是你的文臣们
你需要做到:
不透漏机密
不轻信任何 LLM 的话、要对任何 LLM 的话有自己的求证和思考
兼听则明
…
如何撰写高质量的提示词 ?
首先,一个复杂的问题可以拆分成 n 个小问题,让 LLM 逐个击破
其次,如果你能获得高质量输出的例子,可以让 LLM 模仿
最后,我们来说一下如何编写高质量的提示词:
编写清晰、充分、引导性强的结构化表达(eg:markdown),结构化能够帮助 LLM 精准辨别哪些文字应当被识别为一个完整的意义单元
上文说了,你可以把 LLM 想像成大脑,所以你在编写提示词的时候,可以给 LLM 赋予特定的角色,可以让 LLM 只能给出特定范畴的回答
比如你可以让 LLM 是一个有十年从业经历的高级法律顾问,要求它只能给出法律相关的回答
这能让 LLM 身临其境地进一步理解当前需求的场景上下文,以便给出更准确、更符合预期的回答
既然如此,编写高质量提示词能不能总结出来套路/范式/模板/框架?这不就省事了么,也便于引导 LLMs 生成更准确、更符合预期的回答
5W1H
BROKE
…
上述套路/范式/模板/框架的本质就是【高效表达的方法论】
这也太复杂了,既然我不太会写高质量的输入,那就让 LLMs 来写!=> eg: Kimi-提示词专家,是基于 LLM 的智能体(Agent)
在使用诸如 DeepSeek 等 LLM 应用软件的时候,你可能会发现又一个按钮=>深度思考模式,这是啥?
简单来说,LLM 大致分为 2 种类型,即:指令型 & 推理型,深度思考模式调用的是推理型 LLM
指令型 LLM 聪明又听话,它使用便捷,工作高效,适用于大多数规范性任务,比如 DeepSeek_V3,但它对提示词的依赖程度高
推理型 LLM 同样聪明,但尤其擅长分析推理,显得没那么听话,适用于分析推理、创意思考等任务,比如 DeepSeek_R1、Kimi_1.5、…,它对提示词的依赖程度相对较低
接下来聊聊 Agent
广义上的 Agent:任何能感知环境、做出行动、达成目标的东西
比如:人、机器人、游戏里的NPC、自动驾驶汽车、甚至细菌、动物、…
只要满足:感知 → 思考/决策 → 行动 → 达成目标,就是广义上的 Agent
狭义上的 Agent:就是现在常用的各种AI小助手,比如支付宝里面的理财助理「蚂小财」,是以 LLM 为大脑,以各种工具为手臂,以循环为模式的任务执行系统
特点:有目标、能思考、能规划、能调用工具(eg:用软件、查资料、写代码、发消息、…)、能自动完成事情,不用你一步步指挥
比如:你说“帮我写一份周报,再发给领导”,它自己理解、查数据、写内容、检查、发送
这就是狭义上的 Agent
未来的 Agent:像真人助理一样,能独立负责一整个领域、长期帮你做事,一个 Agent 就能顶一个私人助理/员工/专家
比如:
做 PPT 用 AI
写公文用 AI
原则:
AI 的作用不是替你写出文稿
考虑到数据的安全性,处理涉密文件应使用本地部署的大模型
软件推荐:秘塔、纳米AI搜索
知识扩展
知识库
工作流
(完)
1 | # System Configuration Utility |
ENV: macbook-air-m1, Tahoe 26.2
系统设置 => 键盘 => 键盘快捷键 => 修饰键 =>【接下来自行修改即可】
LLM => Large Language Model => 大语言模型
你可以把它想象成一个通过阅读整个互联网而成为“文字接龙”世界冠军的超级大脑。
总结来说,大语言模型是一个用海量数据和算力训练出来的、能够模拟和生成人类语言的巨型概率模型,是一个用数据和数学模拟语言规律的复杂函数。它功能强大且通用,但本质上仍是基于统计规律的“模式大师”,而非拥有理解力和意识的智能体。
“大” 是它当前最突出的特征,体现在三个方面:
局限:
LLM 的本质是一个输入输出程序,这意味着:
赋予 LLM 特定的角色 & 约束其回答范畴(即:规则限制,eg:让其只能给出法律相关的回答)
复杂问题可拆解成 n 个小问题,让 LLM 逐个击破
可给 LLM 提供高质量输出的例子,让其模仿
5W1H
BROKE
…
上述套路/范式/模板/框架的本质就是【高效表达的方法论】
AI智能体: eg: Kimi-提示词专家
人类的记忆
对应到AI的记忆
LLM -> 提示词工程 -> 工作流(链式调用)-> 智能体(广义上的)-> 多智能体系统
深度思考模式调用的是【推理型模型】,与【指令型模型】不同
即:AI 生成看似可信、但实际上不准确、虚构或与事实不符的内容,就像人类的幻觉一样,这是 AI 对现实世界理解不完整所导致的现象
这被称为“AI的幻觉”
AI工具补充:秘塔、纳米AI搜索
大模型本地化部署,以处理涉密文件(这是考虑到数据安全的做法)
LLM 的本质是一个输入输出程序,这意味着:
赋予 LLM 特定的角色 & 约束其回答范畴(即:规则限制,eg:让其只能给出法律相关的回答)
复杂问题可拆解成 n 个小问题,让 LLM 逐个击破
可给 LLM 提供高质量输出的例子,让其模仿
5W1H
BROKE
…
上述套路/范式/模板/框架的本质就是【高效表达的方法论】
AI智能体: eg: Kimi-提示词专家
深度思考模式调用的是【推理型模型】,与【指令型模型】不同
即:AI 生成看似可信、但实际上不准确、虚构或与事实不符的内容,就像人类的幻觉一样,这是 AI 对现实世界理解不完整所导致的现象
这被称为“AI的幻觉”
coze.cn
给LLM赋予角色 => 编写提示词
插件(第三方工具集),是AiAgent的工具箱
工作流
记忆系统
知识库
LLM 的本质是一个输入输出程序软件体,这意味着:
结构化(eg:markdown)表达充分而清晰、具备强引导性的输入,能获取更棒的输出(good question can get good answer)
结构化(eg:markdown)能够帮助 LLM 精准辨识:对于输入,哪些部分应当被识别为一个完整的意义单元让 LLM 软件体“身临其境”地理解某一具体需求的场景上下文,以便给出更棒的输出
实操步骤:
赋予 LLM 特定角色,约束 LLM 的回答范畴(也可理解为规则限制,比如让其只能给出法律相关的回答)
给 LLM 提供高质量输出的例子,让其模仿
分治法:复杂问题可拆解成 n 个小问题,让 LLM 逐个击破
LLM 的本质是一个输入输出程序软件体,这意味着:
结构化(eg:markdown)表达充分而清晰、具备强引导性的输入,能获取更棒的输出(good question can get good answer)
结构化(eg:markdown)能够帮助 LLM 精准辨识:对于输入,哪些部分应当被识别为一个完整的意义单元让 LLM 软件体“身临其境”地理解某一具体需求的场景上下文,以便给出更棒的输出
实操步骤:
赋予 LLM 特定角色,约束 LLM 的回答范畴(也可理解为规则限制,比如让其只能给出法律相关的回答)
给 LLM 提供高质量输出的例子,让其模仿
分治法:复杂问题可拆解成 n 个小问题,让 LLM 逐个击破
背景知识:
在Linux音频系统中,“输出设备” = 这个设备可以接收声音,然后播放出来,并非声音的生产者,它只是声音的播放者
而“输入设备”负责采集声音,是声音的起点,声音从输入设备开始传播
如此一来,就不难理解TUI工具pulsemixer的output标签下的内容,output即输出设备,下含
1.有线麦克风(因为我的这个麦克风有用于播放声音的3.5mm耳机孔,我的这个麦克风可以接收声音然后播放出来,所以是输出设备)
2.电脑内置声卡(能接收声音然后播放<无论是接耳机还是接扬声器>,当然是输出设备)
3.虚拟混音池(接收音乐播放器的声音、接收麦克风的声音;并且能播放给录音软件等物件儿;当然是输出设备)
也不难理解TUI工具pulsemixer的input标签下的内容,input即输入设备,下含
1.有线麦克风
2.电脑内置声卡
~~
每个输出设备都有一个对应的监听口,这些监听口都是输入设备,即Monitor of …
简言之:每个“喇叭”都有个“窃听器”,录音软件只需要接窃听器,就能录到喇叭正在播放的声音
1 | #!/bin/bash |
注意:latency_msec=5 是指明的低延迟参数,因为是软件实现的监听
yazi, z
ref: https://yazi-rs.github.io/docs/plugins/builtins/#usage
vim, ripgrep | fzf, <C-f>
ref: https://github.com/junegunn/fzf.vim
shell, fzf, <C-r>
macbookair-m1-charger: 1
asus-ac-adapter: 1
philips-usb-1-4: 1
notCommon-mobileHDD-cable: 1
common C-C: 1
C-interface wire-headset: 1
3.5-interface wire-headset: 1
A-C: 2
3-C: 1
HDMI-HDMI: 1
请注意药品有效期 & 药品性状
| 药品名称 | 数量 | 有效期至 |
|---|---|---|
| 洛索洛芬那片 | 1盒 | 2027-11 |
| 复方氨酚烷胺片 | 2片 | 2027-12 |
| 复方对乙酰氨基酚片 | 1盒 | 2029-02 |
| 连花清瘟颗粒 | 4顿 | 2027-01 |
| 麝香痔疮栓 | 1盒 | 2026-10 |
| 复方嗜酸乳杆菌片 | 1盒 | 2026-09 |
| 荜铃胃痛颗粒 | 1盒 | 2027-02 |
| 头孢克肟片 | 4粒 | 2026-06 |
| 马来酸曲美布汀分散片 | 7/20片 | 2026-07 |
| 泮托拉唑钠肠溶片 | 1盒 | 2026-06 |
| 醋酸地塞米松片 | 1盒 | 2028-06 |
| <++> | <++> | <++> |
1 | pacman -S <package_name> |
与时俱进,用fcitx5
1 | sudo pacman -Syu fcitx5-im |
重启系统,使用fcitx5-configtool添加中文输入法,使用ctrl+space进行输入法的切换