体验下微软开源的Markdown转换工具Markitdown
这个工具的来源是看到了大神的个人知识库的文章,比之以前可能都是以rag的形式,现在是通过直接让大模型学习提取原始知识文档,来给自己做个人知识库的索引和整理,那么有一个前提是大模型更擅长的文档格式是纯文本的,或者说就是以Markdown的形式,因为既有段落格式,又是相对纯文本
这个工具的来源是看到了大神的个人知识库的文章,比之以前可能都是以rag的形式,现在是通过直接让大模型学习提取原始知识文档,来给自己做个人知识库的索引和整理,那么有一个前提是大模型更擅长的文档格式是纯文本的,或者说就是以Markdown的形式,因为既有段落格式,又是相对纯文本
之前跟着大佬的脚步用上了traefik,但是对具体的原理不太理解,或者说比较疑惑
因为这个具体的配置是在后面服务的docker-compose配置文件的label上的
traefik好像没办法直接读到这个配置
现在搜索资料好像也没有很明确的介绍,包括官方文
之前也有迁移过一些服务器,这次也是因为原来的续费太贵了,所以做了下迁移,直接续费1xxx每年,重新买一个99一年,
这里主要是两方面,一个是冷备份,我用的是rsync
最近在研究headscale的多局域网互通,但是因为设备和网络知识不过关,所以还没完全走通,不过对于mac设备的路由和linux的路由这些知识稍微多了一点
在mac上可以通过
我们在使用mysql的索引的时候一般会使用explain来查看执行计划,用来分析索引使用情况等
但是经常我们也会质疑,为啥没有用预期的索引,反而使用了另一个或者甚至没使用
这样我们就可以开启optimizer
最近也看到了一篇文章,结合一些实际的经验来看下索引的基数和可选择性,
这个基数指的是啥呢,就是索引我们一直在讲的是要字段值的差异度比较大的那种,因为假如这个字段的所有值都是比如0和1的话,那索引的结构BTree就没办法高效的找到所查询的值,这个基数就是可以作为它差异度
我们日常在使用github的时候经常会碰到访问比较慢的问题,一方面是github的打开慢,还有就是相关的数据传输很慢,比如从github上clone代码,有时候仓库比较大,经常是clone到一半就卡住了,或者速度几乎跌0了,还有比如是下载一些软件的软件包,特别是这个让人特别
前阵子在微博看到一个说nocodb这个工具,一开始以为是类似于飞书的多维表格,那个对于很多办公党来说真的很好用,但是对于我好像没啥吸引力,但是这次看到的介绍是能替代很多db工具,就相当于是个后台系统,可以查看表的数据以及编辑等
首先就是很简单的安装,不过需要再支持do
之前比较粗浅的写过一点类加载器的相关知识,最近因为在看相关的内容,所以打算来复习也简单分享下
首先是我们常规用户自定义类的类加载器,
之前使用了Antigravity的gemini pro 3模型,发现它似乎对语义理解有点跑偏,正好再来对比下我们的常胜将军 Claude Sonnet 4.5 模型
我们还是用的同样的简短prompt
之前在我的3060笔记本上试了有显卡的情况下gpt-oss的表现,只能说勉强可以用,比mbp上是可用了很多,毕竟那玩意除非完全把内存都让给gpt-oss,不然都跑不起来,只是生成速度还是有点感人,差不多就4.66token/s,一直觉得能在本地跑个稍微能用点的模型
这是一个类似于cursor的智能ide,并且内置了最新的gemini-3-pro
首先是生成plan![]()
完整生成完后还是无法运行,多次把问题提给kimi也没有解决
这里我们用iflow的默认Qwen3-Coder-Plus模型来生成一个todo应用
本次的prompt稍微调整了下
最近一直在找这些AI编程助手,想找个cc的八分平替,刚好前阵子在朋友圈看到iflow-cli,据说是可以免费用GLM4.6这些模型,
首先安装也很简单
使用这行命令就行
在很久之前最开始体验国产模型的时候就体验了ChatGLM,那个时候属于国内基本没几家有出大语言模型,但是说实话体验效果的确比较一般
但是目前GLM也是国内比较头部的大语言模型了,特别是最新出的GLM4.6,看大佬的评测好像比Deepseek
学习下用Google的agent开发工具Agent Development Kit简称 ADK,看着名字就不一般,冲着JDK的地位去的哈哈
首先我们安装下pom包
wsl出来这些年感觉在windows里使用linux,或者ubuntu真的是方便了很多,不用搞虚拟机这些
但是也有一些明显的问题,首先就是默认它是在C盘中安装,长久使用占用的空间就会越来越大,而且对于一些临时使用占用空间后,即使删除了文件,windows并不会对已经扩