在AI应用开发中,知识库的构建效率直接影响问答系统的响应质量。Dify凭借其灵活的文档处理能力,成为众多开发者的首选工具。
ollama下载bge-m3模型:
BGE-M3(BAAI General Embedding-M3)是北京智源人工智能研究院(BAAI)推出的一款高性能文本嵌入模型,旨在解决多语言、多粒度文本表示与检索的复杂需求。作为BGE系列的最新成员,M3在语义理解、跨语言检索和多任务适配能力上实现了显著突破,成为RAG(检索增强生成)和知识库构建领域的强力工具。BGE-M3凭借其多语言、多粒度、多功能的设计理念,为文本嵌入与检索任务提供了全新的解决方案。无论是构建全球化知识库,还是优化本地化搜索体验,BGE-M3都能以卓越的性能和灵活的适配能力满足多样化需求。

设置——模型供应商——ollama——添加模型:模型选择嵌入模型,模型名称:bge-m3,基础URL填写ollama地址,其他参数默认。

知识库——创建知识库——创建一个空的知识库——输入名称——创建

添加文件到知识库


选择索引方式:高质量,选择嵌入模型:bge-m3

保存创建

上传,嵌入处理,这时模型会对文档进行向量化处理

嵌入完成

查看文档状态


创建一个聊天助手——Hr助手:
创建空白应用

聊天助手——创建

打开Hr助手——上下文,添加知识库

调试测试——选择聊天模型,如deepseek-r1:1.5b ,该模型如何安装和使用可以查看前面的文章有详细步骤。

测试过程:
问题1:我迟到了30分钟,会入如何处理,对比手册可以发现回答匹配度还是很高的。

手册关于迟到的说明:

问题2:每天要上多少小时

员工手册说明:

测试结果,对知识库的回答基本符合预期。调试完成就可以发布——运行使用了。

发布运行后,提问,回答也是匹配度很高。

转载作品,原作者:,文章来源:https://www.toutiao.com/article/7476668137220489739