Skip to content

📚 LPMM 知识库

LPMM 知识库模块

通过 OpenIE 技术导入自定义知识,让麦麦拥有专属的领域知识,回复更加智能和个性化

文档导航

注意

本知识库与旧版不兼容,如果需要将旧版数据库中的内容迁移到新版,请重新导入。

快速入门

1

安装依赖

Windows 用户:依赖已包含在 requirements.txt 中,执行 pip install quick_algo

Linux/macOS 用户:参考 手动编译说明

2

准备知识文件

将知识文本整理成合适格式,参考 导入文件格式说明

3

导入知识

按照 使用说明 中的步骤进行知识提取和导入

注意事项

重要提醒

  1. 知识提取需要消耗大量 API 调用,文本越长费用越高,建议使用较大的模型(32B~72B)但避免过小的模型
  2. 知识导入时请求频繁,可能触发 API 限速,请选择合适的模型
  3. 导入过程资源消耗大,建议在性能较好的设备上运行

常见问题

Q: 为什么提取失败?

A: 请确保你的文本分段良好、没有奇怪的字符。过小的模型(32B 以下)可能导致提取效果差或失败。

Q: 如何选择提取模型?

A: 如果要求不高,建议采用 32B~72B 的模型来提取。如果追求高质量,可以使用 DeepSeek V3 等大模型,但费用会更高。

Q: Docker 用户如何使用 LPMM?

A: Docker 镜像已预编译 LPMM,可以直接运行相关脚本。

获取帮助

📖

查阅文档

仔细阅读上述相关文档

常见问题

查看 FAQ 获取更多帮助

💬

加入社群

加入官方社群寻求帮助