构建真正具备可扩展性的智能体知识库

发布日期:2026-05-05 10:33:51   浏览量 :0
发布日期:2026-05-05 10:33:51  
0

2026西湖龙井茶官网DTC发售:茶农直供,政府溯源防伪到农户家 

这是关于管理人工智能编码代理所依赖的日益增长的技能、脚本和上下文堆积系列的第八部分。第一部分介绍了渐进式披露。第二部分统一了您跨平台的本地资产。第三部分添加了持久化记忆。之前的部分探讨了团队、分布式存储库和社区知识。

这一部分讨论的是一个不同的问题:知识积累。

您开始一个新的研究领域——例如,大型语言模型推理优化。您阅读论文。您做笔记。您保存可移植文档格式文件。您的代理编写摘要,发现联系,提出导致更多笔记的后续问题。六周后,您拥有一堆标记语言文件、下载文件夹中半消化的论文,以及一条声称“我们在某处涵盖了键值缓存量化”的记忆。您搜索它。您得到三个文件,它们对同一主题有不同的片面观点。其中没有一个包含您需要的答案。

这不是存储问题。您拥有所有信息。这是一个结构性问题——而这正是 akm 的多维基支持旨在解决的问题。

卡尔帕蒂的大型语言模型维基模式

在 GitHub 代码片段中,安德烈·卡尔帕蒂描述了一种维护由人类和大型语言模型共同构建和维护的标记语言知识库的模式。核心思想看似简单:一个结构化的标记语言页面目录,由一个代理负责随着时间的推移将传入的信息综合到这些页面中。

其洞察在于,代理确实擅长某些人类觉得繁琐的事情。将一篇四十页的论文总结为两段式的页面条目。发现新论文与知识库中已有内容之间的联系。记录添加了什么以及原因。当新信息与现有页面矛盾或扩展现有页面时,更新该页面。

代理不擅长的是:维护不变量。代理不会可靠地强制保证短网址的唯一性。它不会一致地重新生成索引。它有时会覆盖您打算保持不可变的源文件。当会话结束时,它会丢失已摄入内容的跟踪记录。

因此,您需要分工。代理负责综合。工具负责强制执行不变量。这就是 akm 的维基支持所填补的空白。

问题:知识积累并迷失

大多数开发人员会通过以下两种方式之一遇到这个问题。

第一种方式:您将文件作为知识资产导入(akm import ./paper.md),您的代理直接读取它。这对于一两个文档来说效果很好。到了十个文档,代理会将全文加载到每个相关会话中。到了三十个文档,您会在不需要的上下文上花费令牌,而代理则试图在每个会话中对三十个单独文件之间的关系进行心理综合。没有任何内容相互连接。没有任何内容被索引。

第二种方式:您要求您的代理在 notes.md 文件中“做笔记”。文件不断增大。它变成了一堵没有结构的文本墙。搜索它只能使用全局正则表达式打印命令。更新它意味着代理在写入任何内容之前必须阅读整个文件。经过几次会话后,代理开始忽略它在两周前编写的部分,因为它们位于可视区域之外。

这两种模式都以同样的方式失败:知识没有结构性的归属。没有定义页面是什么的模式。没有使内容可查找的索引。没有跟踪发生事情的日志。原始来源和综合页面之间没有分离。

akm 的多维基如何工作

akm 中的维基是一个命名的子目录

免责声明:本文内容来自互联网,该文观点不代表本站观点。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请到页面底部单击反馈,一经查实,本站将立刻删除。

关于我们
热门推荐
合作伙伴
免责声明:本站部分资讯来源于网络,如有侵权请及时联系客服,我们将尽快处理
支持 反馈 订阅 数据
回到顶部