📚 LPMM 知识库
LPMM 知识库模块
通过 OpenIE 技术导入自定义知识,让麦麦拥有专属的领域知识,回复更加智能和个性化
文档导航
注意
本知识库与旧版不兼容,如果需要将旧版数据库中的内容迁移到新版,请重新导入。
快速入门
注意事项
重要提醒
- 知识提取需要消耗大量 API 调用,文本越长费用越高,建议使用较大的模型(32B~72B)但避免过小的模型
- 知识导入时请求频繁,可能触发 API 限速,请选择合适的模型
- 导入过程资源消耗大,建议在性能较好的设备上运行
常见问题
Q: 为什么提取失败?
A: 请确保你的文本分段良好、没有奇怪的字符。过小的模型(32B 以下)可能导致提取效果差或失败。
Q: 如何选择提取模型?
A: 如果要求不高,建议采用 32B~72B 的模型来提取。如果追求高质量,可以使用 DeepSeek V3 等大模型,但费用会更高。
Q: Docker 用户如何使用 LPMM?
A: Docker 镜像已预编译 LPMM,可以直接运行相关脚本。