基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

06-01 1299阅读

大模型

    • 安装Ollama
      • 使用win系统安装
      • 使用sh脚本安装
      • 使用docker安装
      • 下载大模型
      • 搭建WebUI工具和本地知识库
        • Docker安装Dify
          • 配置本地知识库
          • Docker安装MaxKb
            • 配置本地知识库
            • Docker安装Open-WebUi
              • 配置本地知识库
              • Docker安装AnythingLLM
                • 配置本地知识库
                • Docker安装RAGFlow
                  • 配置本地知识库
                  • Docker安装FastGPT
                    • 配置本地知识库

                      大模型(LLM,Large Language Model)指的是 参数量巨大、基于深度学习训练的人工智能模型,用于 自然语言处理(NLP) 任务,如文本生成、对话、翻译、代码补全等。它们通常由数十亿到万亿级别的参数组成,能够理解和生成类似人类的文本。

                      • 大模型的核心特点

                        ✅ 超大规模参数:从 数十亿(Billion)到万亿(Trillion)级别参数,比如 GPT-4、Gemini、DeepSeek、Qwen、ChatGLM 等。

                        ✅ 基于 Transformer 架构:大多数大模型使用 Transformer 作为基础(如 GPT, LLaMA, Mistral, Baichuan 等)。

                        ✅ 支持多任务处理:可以进行 文本理解、摘要、代码生成、图像识别(多模态)等。

                        ✅ 可微调(Fine-tuning):可以通过 LoRA、QLoRA、P-tuning 等技术针对特定领域优化。

                        ✅ 可本地部署或云端 API 访问:如 OpenAI 的 GPT-4 需 API 调用,而 LLaMA、DeepSeek 可本地运行。

                        大模型的主要类型

                        大模型可以按照应用方向划分为以下几类:

                        • 语言大模型(LLM, Large Language Model)

                          用于 文本生成、对话 AI、代码生成 等,如:GPT-4 OpenAI、DeepSeek、Qwen

                          适用领域:Chatbot、知识库问答、智能助手等

                        • 代码大模型(Code LLM)

                          用于 代码补全、自动编程,如:DeepSeek-Coder、CodeLlama、BigCode

                          适用领域:IDE 代码补全、AI 编程助手(如 Copilot)

                        • 多模态大模型(Multimodal LLM)

                          支持 文本 + 图像 + 语音 处理,如:Gemini、Qwen-VL、CogView

                          适用领域:图像理解、OCR 识别、智能创作(如 Midjourney)。

                        • 知识检索增强(RAG, Retrieval-Augmented Generation)

                          大模型结合知识库,如:LangChain、LlamaIndex

                          适用领域:智能客服、文档问答、搜索增强(如 ChatGPT+自有数据)。

                          大模型的训练方式

                          • 预训练(Pre-training):使用大量文本数据进行 自回归(Autoregressive) 或 自编码(Autoencoder) 训练。
                          • 指令微调(Instruction Tuning):对大模型进行 任务特定优化(如聊天、代码生成)。
                          • RLHF(人类反馈强化学习):通过 人类评分 调整模型行为(如 ChatGPT 的训练)。
                          • 蒸馏(Distillation):将大模型知识压缩到小模型,提高推理速度(如 DeepSeek 1.5B 可能是 67B 的蒸馏版本)。

                            轻量级本地 LLM 运行工具(适合个人用户):适用于 Windows / Mac / Linux,零基础可用:

                            ✅ Ollama(推荐 🌟)

                            特点:一键运行 LLM,支持 GGUF 量化,CLI & API 兼容 OpenAI

                            适用场景:轻量级 LLM 运行,本地聊天

                            支持模型:LLaMA, Mistral, DeepSeek, Qwen, Gemma

                            ✅ LM Studio

                            特点:本地 GUI 可视化,支持 GGUF

                            适用场景:零基础使用,轻量聊天

                            支持模型:LLaMA, Mistral, DeepSeek

                            ✅ GPT4All

                            特点:轻量级 GUI,本地 AI 聊天

                            适用场景:本地离线 AI 助手

                            支持模型:GPT4All, LLaMA, Mistral

                            安装Ollama

                            本实验主要使用win系统安装ollama部署deepseek-r1(1.5b、7b、8b、14b、32b等参数)并搭建对接市面上各个开源的WebUI工具和本地知识库

                            Ollama是一款跨平台推理框架客户端(MacOS、Windows、Linux),旨在无缝部署大型语言模型 (LLM),例如 Llama 2、Mistral、Llava 等。Ollama 的一键式设置支持 LLM 的本地执行,通过将数据保存在自己的机器上,提供增强的数据隐私和安全性。

                            使用win系统安装

                            官网

                            • 下载win版本即可

                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                              • 下载后双击默认会安装在C盘

                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                • 创建大模型下载目录并配置系统变量

                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                  OLLAMA_HOST 
                                  0.0.0.0
                                  
                                  OLLAMA_ORIGINS
                                  *
                                  
                                  OLLAMA_MODELS
                                  C:\OLLAMA_MODELS(自定义模型保存位置,按照自身需求设置路径)
                                  
                                  • 打开powershell执行ollama能查看到命令即可

                                    基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                    命令使用

                                    • serve

                                      启动 Ollama 服务器,使其处于运行状态,等待处理请求

                                      用法示例:

                                      ollama serve
                                      
                                      • create

                                        从 Modelfile 创建一个新的模型

                                        用法示例:

                                        ollama create my-model
                                        
                                        • show

                                          显示特定模型的信息,如版本、参数等

                                          用法示例:

                                          ollama show my-model
                                          
                                          • run

                                            运行一个模型,通常用于推理任务(如聊天、生成文本等)

                                            用法示例:

                                            ollama run my-model
                                            
                                            • stop

                                              停止正在运行的模型。

                                              用法示例:

                                              ollama stop my-model
                                              
                                              • pull

                                                从注册表(服务器)拉取一个模型到本地

                                                用法示例:

                                                ollama pull my-model
                                                
                                                • push

                                                  将本地模型推送到注册表(服务器)

                                                  用法示例:

                                                  ollama push my-model
                                                  
                                                  • list

                                                    列出本地可用的模型

                                                    用法示例:

                                                    ollama list
                                                    
                                                    • ps

                                                      列出当前正在运行的模型。

                                                      用法示例:

                                                      ollama ps
                                                      
                                                      • cp

                                                        复制一个模型。

                                                        用法示例:

                                                        ollama cp my-model new-model
                                                        
                                                        • rm

                                                          删除本地的一个模型。

                                                          用法示例:

                                                          ollama rm my-model
                                                          
                                                          • 对于多行输入,可以使用以下方式换行"“”:

                                                            用法示例:

                                                            >>> """Hello,
                                                            ... world!
                                                            ... """
                                                            I'm a basic program that prints the famous "Hello, world!" message to the console.
                                                            

                                                            使用sh脚本安装

                                                            系统Ubuntu2404:注意需要配置显卡,不然只能跑内存

                                                            root@huhy:~# curl -fsSL https://ollama.com/install.sh | sh
                                                            >>> Cleaning up old version at /usr/local/lib/ollama
                                                            >>> Installing ollama to /usr/local
                                                            >>> Downloading Linux amd64 bundle
                                                            ######################################################################## 100.0%
                                                            >>> Creating ollama user...
                                                            >>> Adding ollama user to render group...
                                                            >>> Adding ollama user to video group...
                                                            >>> Adding current user to ollama group...
                                                            >>> Creating ollama systemd service...
                                                            >>> Enabling and starting ollama service...
                                                            Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.
                                                            >>> The Ollama API is now available at 127.0.0.1:11434.
                                                            >>> Install complete. Run "ollama" from the command line.
                                                            WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.
                                                            
                                                            root@huhy:~# systemctl status ollama
                                                            ● ollama.service - Ollama Service
                                                                 Loaded: loaded (/etc/systemd/system/ollama.service; enabled; preset: enabled)
                                                                 Active: active (running) since Tue 2025-02-11 07:28:07 UTC; 2min 29s ago
                                                               Main PID: 4219 (ollama)
                                                                  Tasks: 9 (limit: 4556)
                                                                 Memory: 30.4M (peak: 30.6M)
                                                                    CPU: 88ms
                                                                 CGroup: /system.slice/ollama.service
                                                                         └─4219 /usr/local/bin/ollama serve
                                                            Feb 11 07:28:07 huhy ollama[4219]: [GIN-debug] GET    /api/tags                 --> github.com/ollama/ollama/server.(*S>
                                                            Feb 11 07:28:07 huhy ollama[4219]: [GIN-debug] GET    /api/version              --> github.com/ollama/ollama/server.(*S>
                                                            Feb 11 07:28:07 huhy ollama[4219]: [GIN-debug] HEAD   /                         --> github.com/ollama/ollama/server.(*S>
                                                            Feb 11 07:28:07 huhy ollama[4219]: [GIN-debug] HEAD   /api/tags                 --> github.com/ollama/ollama/server.(*S>
                                                            Feb 11 07:28:07 huhy ollama[4219]: [GIN-debug] HEAD   /api/version              --> github.com/ollama/ollama/server.(*S>
                                                            Feb 11 07:28:07 huhy ollama[4219]: time=2025-02-11T07:28:07.851Z level=INFO source=routes.go:1238 msg="Listening on 127>
                                                            Feb 11 07:28:07 huhy ollama[4219]: time=2025-02-11T07:28:07.853Z level=INFO source=routes.go:1267 msg="Dynamic LLM libr>
                                                            Feb 11 07:28:07 huhy ollama[4219]: time=2025-02-11T07:28:07.856Z level=INFO source=gpu.go:226 msg="looking for compatib>
                                                            Feb 11 07:28:07 huhy ollama[4219]: time=2025-02-11T07:28:07.861Z level=INFO source=gpu.go:392 msg="no compatible GPUs w>
                                                            Feb 11 07:28:07 huhy ollama[4219]: time=2025-02-11T07:28:07.861Z level=INFO source=types.go:131 msg="inference compute
                                                            
                                                            root@huhy:~# ollama run deepseek-r1:1.5b
                                                            pulling manifest
                                                            pulling aabd4debf0c8... 100% ▕██████████████████████████████████████████████████████████████████████████▏ 1.1 GB
                                                            pulling 369ca498f347... 100% ▕██████████████████████████████████████████████████████████████████████████▏  387 B
                                                            pulling 6e4c38e1172f... 100% ▕██████████████████████████████████████████████████████████████████████████▏ 1.1 KB
                                                            pulling f4d24e9138dd... 100% ▕██████████████████████████████████████████████████████████████████████████▏  148 B
                                                            pulling a85fe2a2e58e... 100% ▕██████████████████████████████████████████████████████████████████████████▏  487 B
                                                            verifying sha256 digest
                                                            writing manifest
                                                            success
                                                            >>> Send a message (/? for h
                                                            >>> 你好呀
                                                            
                                                            
                                                            你好!很高兴见到你,有什么我可以帮忙的吗?😊
                                                            
                                                            • 配置监听地址
                                                              vim /etc/systemd/system/ollama.service
                                                              
                                                              [Unit]
                                                              Description=Ollama Service
                                                              After=network-online.target
                                                              [Service]
                                                              ExecStart=/usr/local/bin/ollama serve
                                                              User=ollama
                                                              Group=ollama
                                                              Restart=always
                                                              RestartSec=3
                                                              #Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
                                                              Environment="OLLAMA_HOST=0.0.0.0" # 将上面行注释,添加此行
                                                              [Install]
                                                              WantedBy=default.target
                                                              
                                                              systemctl daemon-reload
                                                              systemctl restart ollama
                                                              
                                                              root@huhy:~# ss -tlun | grep 11
                                                              tcp   LISTEN 0      4096               *:11434            *:*
                                                              

                                                              使用docker安装

                                                              系统Ubuntu2404:

                                                              • 安装docker
                                                                apt -y install apt-transport-https ca-certificates curl software-properties-common
                                                                curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo apt-key add -
                                                                add-apt-repository "deb [arch=amd64] https://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"
                                                                apt-get -y install docker-ce
                                                                
                                                                • 配置daemon文件
                                                                  cat > /etc/docker/daemon.json  ollama run deepseek-r1:1.5b
                                                                  pulling manifest
                                                                  pulling aabd4debf0c8... 100% ▕████████████████████████████████████████████████████████▏ 1.1 GB
                                                                  pulling 369ca498f347... 100% ▕████████████████████████████████████████████████████████▏  387 B
                                                                  pulling 6e4c38e1172f... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB
                                                                  pulling f4d24e9138dd... 100% ▕████████████████████████████████████████████████████████▏  148 B
                                                                  pulling a85fe2a2e58e... 100% ▕████████████████████████████████████████████████████████▏  487 B
                                                                  verifying sha256 digest
                                                                  writing manifest
                                                                  success
                                                                  
                                                                  PS C:\Users\huhy> ollama list
                                                                  NAME                ID              SIZE      MODIFIED
                                                                  deepseek-r1:32b     38056bbcbb2d    19 GB     45 seconds ago
                                                                  deepseek-r1:14b     ea35dfe18182    9.0 GB    2 hours ago
                                                                  deepseek-r1:8b      28f8fd6cdc67    4.9 GB    2 hours ago
                                                                  deepseek-r1:7b      0a8c26691023    4.7 GB    2 hours ago
                                                                  deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    2 hours ago
                                                                  

                                                                  ()从 GGUF 导入

                                                                  Huggingface官方下载

                                                                  GGUF(GPT-Generated Unified Format)是一种专门为大型语言模型设计的文件格式,旨在优化模型的存储、加载和推理效率。它通常用于本地部署的模型(如基于LLaMA、Falcon等架构的模型),尤其是在资源受限的设备上(如个人电脑或嵌入式设备)

                                                                  GGUF模型的核心特点

                                                                  • 高效存储

                                                                    GGUF采用量化技术(如4-bit、8-bit量化),大幅减少模型文件大小,同时尽量保持模型性能。

                                                                    适合在本地设备上存储和运行,尤其是显存或内存有限的场景。

                                                                  • 快速加载

                                                                    GGUF格式针对加载速度进行了优化,能够更快地将模型加载到内存或显存中,减少启动延迟。

                                                                  • 跨平台兼容

                                                                    GGUF格式设计时考虑了跨平台支持,可以在不同操作系统(如Windows、Linux、macOS)和设备(如CPU、GPU)上运行。

                                                                  • 模块化设计

                                                                    GGUF支持将模型拆分为多个文件,便于分块加载或更新,特别适合大型模型。

                                                                  • 易于部署

                                                                    GGUF格式通常与开源推理框架(如llama.cpp)配合使用,能够简化模型的本地部署流程。

                                                                    创建一个名为 的文件Modelfile,其中FROM包含要导入的模型的本地文件路径的指令。(注意makefile文件和gguf文件要在同一目录)

                                                                    FROM ./vicuna-33b.Q4_0.gguf
                                                                    

                                                                    在 Ollama 中创建模型

                                                                    ollama create example -f Modelfile
                                                                    

                                                                    运行模型

                                                                    ollama run example
                                                                    

                                                                    (2)如果有模型文件,可以直接导入,例如我在另外一台节点上下载好了模型文件,可以导入到新的节点上

                                                                    • 找到下载好的模型文件(linux环境模型存储位置)
                                                                      root@huhy:/usr/share/ollama/.ollama/models# ls
                                                                      blobs  manifests
                                                                      root@huhy:/usr/share/ollama/.ollama/models# pwd
                                                                      /usr/share/ollama/.ollama/models
                                                                      root@huhy:/usr/share/ollama/.ollama/models# ollama list
                                                                      NAME                        ID              SIZE      MODIFIED
                                                                      mxbai-embed-large:latest    468836162de7    669 MB    34 minutes ago
                                                                      
                                                                      • 开始打包
                                                                        root@huhy:/usr/share/ollama/.ollama/models/manifests/registry.ollama.ai/library# ls
                                                                        mxbai-embed-large
                                                                        root@huhy:/usr/share/ollama/.ollama/models/manifests/registry.ollama.ai/library# tar -zcvf mxbai-embed-large.tar.gz mxbai-embed-large/
                                                                        mxbai-embed-large/
                                                                        mxbai-embed-large/latest
                                                                        
                                                                        root@huhy:/usr/share/ollama/.ollama/models/blobs# tar -zcvf blobs.tar.gz ./*
                                                                        ./sha256-38badd946f91096f47f2f84de521ca1ef8ba233625c312163d0ad9e9d253cdda
                                                                        ./sha256-819c2adf5ce6df2b6bd2ae4ca90d2a69f060afeb438d0c171db57daa02e39c3d
                                                                        ./sha256-b837481ff8556a29d9bb27ac280c23495a491e7268d8f043f2e617f7f795d089
                                                                        ./sha256-c71d239df91726fc519c6eb72d318ec65820627232b2f796219e87dcf35d0ab4
                                                                        root@huhy:/usr/share/ollama/.ollama/models/blobs# ls
                                                                        blobs.tar.gz
                                                                        
                                                                        • 如果有多个模型不确定模型文件与镜像对应的名称可查看
                                                                          root@huhy:/usr/share/ollama/.ollama/models/manifests/registry.ollama.ai/library/mxbai-embed-large# cat latest
                                                                          {"schemaVersion":2,"mediaType":"application/vnd.docker.distribution.manifest.v2+json","config":{"mediaType":"application/vnd.docker.container.image.v1+json","digest":"sha256:38badd946f91096f47f2f84de521ca1ef8ba233625c312163d0ad9e9d253cdda","size":408},"layers":[{"mediaType":"application/vnd.ollama.image.model","digest":"sha256:819c2adf5ce6df2b6bd2ae4ca90d2a69f060afeb438d0c171db57daa02e39c3d","size":669603712},{"mediaType":"application/vnd.ollama.image.license","digest":"sha256:c71d239df91726fc519c6eb72d318ec65820627232b2f796219e87dcf35d0ab4","size":11357},{"mediaType":"application/vnd.ollama.image.params","digest":"sha256:b837481ff8556a29d9bb27ac280c23495a491e7268d8f043f2e617f7f795d089","size":16}]}root@huhy:/usr/share/ollama/.ollama/models/manifests/registry.ollama.ai/library/mxbai-embed-large#
                                                                          
                                                                          • 将blobs下的镜像文件以及manifests的路径文件都拷贝到新节点下即可。
                                                                            root@node1:~# tar -xf mxbai-embed-large.tar.gz -C /ollama_models/manifests/registry.ollama.ai/library/
                                                                            root@node1:~# ls /ollama_models/blobs/
                                                                            sha256-369ca498f347f710d068cbb38bf0b8692dd3fa30f30ca2ff755e211c94768150
                                                                            sha256-4cd576d9aa16961244012223abf01445567b061f1814b57dfef699e4cf8df339
                                                                            sha256-5e9a45d7d8b98eb61a65815d36008bfef6fd6ebad6f0be432fb61d83b70550f8
                                                                            sha256-6e4c38e1172f42fdbff13edf9a7a017679fb82b0fde415a3e8b3c31c6ed4a4e4
                                                                            sha256-a85fe2a2e58e2426116d3686dfdc1a6ea58640c1e684069976aa730be6c1fa01
                                                                            sha256-aabd4debf0c8f08881923f2c25fc0fdeed24435271c2b3e92c4af36704040dbc
                                                                            sha256-f4d24e9138dd4603380add165d2b0d970bef471fac194b436ebd50e6147c6588
                                                                            root@node1:~# tar -xf blobs.tar.gz -C /ollama_models/blobs/
                                                                            root@node1:~# ollama list
                                                                            NAME                        ID              SIZE      MODIFIED       
                                                                            mxbai-embed-large:latest    468836162de7    669 MB    19 minutes ago    
                                                                            deepseek-r1:70b             0c1615a8ca32    42 GB     2 weeks ago       
                                                                            deepseek-r1:1.5b            a42b25d8c10a    1.1 GB    2 weeks ago       
                                                                            root@node1:~# 
                                                                            

                                                                            搭建WebUI工具和本地知识库

                                                                            WebUI 工具用于可视化界面进行AI对话,有不少是自带知识库(RAG,Retrieval-Augmented Generation),适用于本地私有知识库、企业内网、个人 AI 助手。例如:

                                                                            工具特点个人 使用感受
                                                                            Dify 🌟可视化 AI 助手,低代码构建,支持 RAG不能自定义前端样式,其他的倒是还不错
                                                                            MaxKB 🌟轻量级本地知识库,支持多格式文档需要购买专业版,普通版有限制
                                                                            OpenWebUIChatGPT 风格 UI,集成知识库感觉浏览器界面加载有点慢,不流畅
                                                                            AnythingLLM一体化AI 应用程序主要是不支持国内大模型厂商!但是可以自定义前端样式
                                                                            RAGFlow可视化 RAG,支持 SQL 知识库它的知识库上传文件好像有点问题,老是上传失败
                                                                            FastGPT模型结构与AI应用分离,便于管理和Dify差不多,唯一的缺点就是前端不能自定义,而且还有商业版

                                                                            本地知识库是指在本地(如个人电脑、企业服务器、云等)部署和管理的知识库系统,用于存储、管理和检索格式化或非格式化数据。相比于在线或云端知识库,本地知识库的主要特点是数据隐私性更高、访问速度更快,并且可以根据具体需求进行高度定制

                                                                            本地知识库涉及多个核心模型和技术,主要内容为内容处理、帮助化、搜索、知识增强、问答生成等阶段。以下是构建本地知识库时常用的模型和技术分类:

                                                                            文本预处理技术

                                                                            • 在构建本地知识库前,需要对原始文档(如PDF、Word、TXT)进行解析和清洗:

                                                                              • 文档解析:

                                                                                PyMuPDF、pdfplumber(用于PDF解析)

                                                                                python-docx(用于词解析)

                                                                                BeautifulSoup(用于HTML网页解析)

                                                                                文本清洗与分句:

                                                                                NLTK、SpaCy(中文文本分词、消失词)

                                                                                Jieba、THULAC(中文分词)

                                                                                文本服务化(Embedding Model)

                                                                                • 文本转换将文本转换为数字转换,以便进行相似度搜索。以下是几种常用的本地嵌入模型:

                                                                                  • 中文向量模型:

                                                                                    BGE-Embedding(支持中文、效果优秀)🔹推荐

                                                                                    m3e-base(高效中文支持化模型)

                                                                                    Senta-BERT(百度开源的文本管理模型)

                                                                                    多语言&英文模型:

                                                                                    Sentence-BERT (SBERT)(经典文本相似度模型)

                                                                                    E5-large(适合文本)

                                                                                    MiniLM(量轻但效果不错)

                                                                                    Instructor-XL(可用于多任务管理化)

                                                                                    支持化后,文本可用于相似度搜索,从而增强搜索效果。

                                                                                    向量数据库(Vector Database)

                                                                                    • 支持数据库用于存储文本管理,并支持高效的相似度搜索:

                                                                                      FAISS(Facebook开源,适合单机)

                                                                                      Milvus(Zilliz开源,支持全球部署)🔹推荐

                                                                                      ChromaDB(轻量级管理数据库,适合本地小型应用)

                                                                                      Weaviate(可结合OpenAI/Transformer进行增强搜索)

                                                                                      Qdrant(Rust语言开发,性能优越)

                                                                                      这些数据库用于存储本地知识库的支持化,并实现快速的相似性搜索。

                                                                                      搜索增强生成(RAG)

                                                                                      • RAG(Retrieval-Augmented Generation)是大模型+知识库的核心技术,通过检索增强生成:

                                                                                        LlamaIndex(原GPT索引,专门用于RAG应用)🔹推荐

                                                                                        LangChain(结合提供数据库+大模型,实现智能问答)

                                                                                        BM25(传统文本搜索算法,可与提供搜索结合)

                                                                                        RAG允许大模型在回答问题时,先从本地知识库检索相关内容,提高准确率。

                                                                                        Docker安装Dify

                                                                                        GitHub官网

                                                                                        Dify 是一个开源 LLM 应用开发平台。其直观的界面结合了代理 AI 工作流、RAG 管道、代理功能、模型管理、可观察性功能等,让您可以快速从原型转向生产

                                                                                        • 使用docker compose 启动Dify,使用Ubuntu2404系统安装docker和docker compose
                                                                                          apt -y install apt-transport-https ca-certificates curl software-properties-common
                                                                                          curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo apt-key add -
                                                                                          add-apt-repository "deb [arch=amd64] https://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"
                                                                                          apt-get -y install docker-ce
                                                                                          
                                                                                          • 配置daemon
                                                                                            cat > /etc/docker/daemon.json 80/tcp, :::80->80/tcp, 0.0.0.0:443->443/tcp, :::443->443/tcp
                                                                                            docker-redis-1        redis:6-alpine                     "docker-entrypoint.s…"   redis        15 seconds ago   Up 13 seconds (health: starting)   6379/tcp
                                                                                            docker-sandbox-1      langgenius/dify-sandbox:0.2.10     "/main"                  sandbox      15 seconds ago   Up 14 seconds (health: starting)
                                                                                            docker-ssrf_proxy-1   ubuntu/squid:latest                "sh -c 'cp /docker-e…"   ssrf_proxy   15 seconds ago   Up 13 seconds                      3128/tcp
                                                                                            docker-weaviate-1     semitechnologies/weaviate:1.19.0   "/bin/weaviate --hos…"   weaviate     15 seconds ago   Up 14 seconds
                                                                                            docker-web-1          langgenius/dify-web:0.15.3         "/bin/sh ./entrypoin…"   web          15 seconds ago   Up 14 seconds                      3000/tcp
                                                                                            docker-worker-1       langgenius/dify-api:0.15.3         "/bin/bash /entrypoi…"   worker       14 seconds ago   Up 12 seconds                      5001/tcp
                                                                                            root@huhy:~/dify-main/docker#
                                                                                            
                                                                                            • 前端界面访问:可以通过浏览器通过http://localhost/install访问 Dify 仪表板并开始初始化过程

                                                                                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                              • 输入密码登录

                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                              • 右上角账号中找到设置,选择模型供应商

                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                              • 选择Ollama,添加大模型:只需要修改名称和地址即可,注意地址是本地还是远程

                                                                                                名称一定要对应不然会报错:An error occurred during credentials validation

                                                                                                PS C:\Users\huhy> ollama list
                                                                                                NAME                ID              SIZE      MODIFIED
                                                                                                deepseek-r1:32b     38056bbcbb2d    19 GB     9 hours ago
                                                                                                deepseek-r1:14b     ea35dfe18182    9.0 GB    11 hours ago
                                                                                                deepseek-r1:8b      28f8fd6cdc67    4.9 GB    11 hours ago
                                                                                                deepseek-r1:7b      0a8c26691023    4.7 GB    11 hours ago
                                                                                                deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    11 hours ago
                                                                                                

                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                • 继续添加Text Embedding。这是为知识库添加bge-large模型

                                                                                                  bge-large 是一个 Embedding(文本向量化)模型,全名是 BAAI General Embedding (BGE),由 BAAI(北京智源人工智能研究院) 开发,主要用于 语义搜索、文本检索、相似度计算、RAG(检索增强生成) 等任务

                                                                                                  bge-large 主要应用场景:

                                                                                                  • ✅ 语义搜索(Semantic Search)
                                                                                                  • ✅ 智能问答(QA Retrieval)
                                                                                                  • ✅ 知识库增强(RAG)(如 LlamaIndex, LangChain)
                                                                                                  • ✅ 文本相似度匹配(Sentence Similarity)
                                                                                                  • ✅ 推荐系统(Recommendation Systems)
                                                                                                    PS C:\Users\huhy> ollama pull bge-large
                                                                                                    pulling manifest
                                                                                                    pulling 92b37e50807d... 100% ▕████████████████████████████████████████████████████████▏ 670 MB
                                                                                                    pulling a406579cd136... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB
                                                                                                    pulling 917eef6a95d7... 100% ▕████████████████████████████████████████████████████████▏  337 B
                                                                                                    verifying sha256 digest
                                                                                                    writing manifest
                                                                                                    success
                                                                                                    
                                                                                                    • Dify官网配置说明

                                                                                                      基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                      基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                      • 最终添加如下:

                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                        配置本地知识库

                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                        • 注意选择Embedding 模型后保存下一步

                                                                                                          基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                          基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                          • 创建应用

                                                                                                            基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                            • 选择聊天助手

                                                                                                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                              • 添加上下问,导入本地知识库

                                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                • 发布聊天:可以根据场景选择发布方式

                                                                                                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                  • 对比参数模型

                                                                                                                    分别测试不同参数的模型回答问题的准确性:文档中提到金奖的数量为参数队伍总数的10%,直接向AI提问(现在参加云计算竞赛的选手有65支,那金奖数量会有多少?)

                                                                                                                    基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                    • 同时测试1.5b、7b、8b、14b模型

                                                                                                                    • 1:对四个模型同时提问

                                                                                                                      基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                      • 2:最小的1.5b模型先开始回答

                                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                        • 3:紧接着7b模型

                                                                                                                          基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                          • 4:1.5b(还计算了铜牌和银牌,但是有点问题)和7b模型都是回答准确,然后8b开始回答

                                                                                                                            基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                            • 5:最后是14b模型

                                                                                                                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                              • 6:总体来说,模型越小速度越快,但思考深度方面相反

                                                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                最后单独测试一下32b模型:显存肉眼可见的上升了,并且回答问题时十分卡顿,但相对来说回答的时候要更加考虑的全面一些

                                                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                个人感觉还行:算是比较好用,就是需要多调试调试参数

                                                                                                                                Docker安装MaxKb

                                                                                                                                官网

                                                                                                                                MaxKB = Max Knowledge Base,是一款基于大语言模型和 RAG 的开源知识库问答系统,广泛应用于智能客服、企业内部知识库、学术研究与教育等场景。

                                                                                                                                使用dcker进行安装:官网手册

                                                                                                                                docker run -d --name=maxkb --restart=always -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data -v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb
                                                                                                                                
                                                                                                                                root@huhy:~# docker run -d --name=maxkb --restart=always -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data -v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb
                                                                                                                                Unable to find image 'registry.fit2cloud.com/maxkb/maxkb:latest' locally
                                                                                                                                latest: Pulling from maxkb/maxkb
                                                                                                                                55ab1b300d4b: Pull complete
                                                                                                                                516e670f76de: Pull complete
                                                                                                                                c8202c7054c7: Pull complete
                                                                                                                                4493463449f8: Pull complete
                                                                                                                                dcd6bd6b20be: Pull complete
                                                                                                                                8331472b7254: Pull complete
                                                                                                                                3dbb847e6011: Pull complete
                                                                                                                                c5b148653b86: Pull complete
                                                                                                                                cb92aacfeb80: Pull complete
                                                                                                                                41c71022e406: Pull complete
                                                                                                                                98fbd3f077e2: Pull complete
                                                                                                                                cea15ef59043: Pull complete
                                                                                                                                9de9cd69634c: Pull complete
                                                                                                                                9c11f106b56c: Pull complete
                                                                                                                                3df6554d74e0: Pull complete
                                                                                                                                3409739a0deb: Pull complete
                                                                                                                                dd4cc3ae0092: Pull complete
                                                                                                                                fa6500045b27: Pull complete
                                                                                                                                6312008eda41: Pull complete
                                                                                                                                ac40a96d9fc7: Pull complete
                                                                                                                                696f9213d112: Pull complete
                                                                                                                                Digest: sha256:f922c66cd6c63179df4f2aaf320b89f28ef93101762b4953912ad272c9ca614a
                                                                                                                                Status: Downloaded newer image for registry.fit2cloud.com/maxkb/maxkb:latest
                                                                                                                                7540ed7ecf668b2979e775a89a2a90760d781155a49ab13535e93c46cd631da4
                                                                                                                                
                                                                                                                                • 界面访问:http://IP:8080
                                                                                                                                  用户名:admin
                                                                                                                                  默认密码:MaxKB@123..
                                                                                                                                  

                                                                                                                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                  • 登录后修改密码,添加模型

                                                                                                                                    基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                    • 添加模型配置信息

                                                                                                                                      基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                      配置本地知识库
                                                                                                                                      • 使用默认的向量模型

                                                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                        • 上传文件到知识库测试

                                                                                                                                          基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                          基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                          • 创建应用

                                                                                                                                            基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                            • 配置模型和知识库后即可聊天测试

                                                                                                                                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                              Docker安装Open-WebUi

                                                                                                                                              GitHub官网

                                                                                                                                              Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器(如Ollama)和与OpenAI 兼容的 API,并内置RAG 推理引擎,使其成为强大的 AI 部署解决方案。

                                                                                                                                              使用默认配置进行安装

                                                                                                                                              • 如果计算机上有 Ollama,请使用以下命令:
                                                                                                                                                docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
                                                                                                                                                
                                                                                                                                                • 如果 Ollama 位于不同的服务器上,请使用以下命令:

                                                                                                                                                  要连接到另一台服务器上的 Ollama,请更改OLLAMA_BASE_URL为该服务器的 URL:

                                                                                                                                                  docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
                                                                                                                                                  
                                                                                                                                                  • 要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
                                                                                                                                                    docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
                                                                                                                                                    
                                                                                                                                                    • 如果仅使用 OpenAI API,请使用此命令:
                                                                                                                                                      docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
                                                                                                                                                      
                                                                                                                                                      root@huhy:~# docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.0.101:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
                                                                                                                                                      Unable to find image 'ghcr.io/open-webui/open-webui:main' locally
                                                                                                                                                      main: Pulling from open-webui/open-webui
                                                                                                                                                      c29f5b76f736: Already exists
                                                                                                                                                      73c4bbda278d: Pull complete
                                                                                                                                                      acc53c3e87ac: Pull complete
                                                                                                                                                      ad3b14759e4f: Pull complete
                                                                                                                                                      b874b4974f13: Pull complete
                                                                                                                                                      4f4fb700ef54: Pull complete
                                                                                                                                                      dfcf69fcbc2b: Pull complete
                                                                                                                                                      e8bfaf4ee0e0: Pull complete
                                                                                                                                                      17b8c991f4f9: Pull complete
                                                                                                                                                      17fcce97562b: Pull complete
                                                                                                                                                      2d116a8d53c4: Pull complete
                                                                                                                                                      59ab933b3f2f: Pull complete
                                                                                                                                                      b3d65316b089: Pull complete
                                                                                                                                                      54fcedec75a0: Pull complete
                                                                                                                                                      5f8d44db0743: Pull complete
                                                                                                                                                      Digest: sha256:26f0c76fcfe234ce6ad670fb65a9f772af0c263d261c2e2b3c784bae2d196c45
                                                                                                                                                      Status: Downloaded newer image for ghcr.io/open-webui/open-webui:main
                                                                                                                                                      44e56b1804e3cb1d279a9e7b965072c6f4939f5494163dccaa1e53ce2d81dfb3
                                                                                                                                                      
                                                                                                                                                      • 安装后,可以通过http://localhost:3000访问 Open WebUI

                                                                                                                                                        官方文档

                                                                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                        • 创建管理员账户和密码

                                                                                                                                                          基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                          • 登录后可直接使用模型,不需要配置连接Ollama

                                                                                                                                                            基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                            基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                            配置本地知识库
                                                                                                                                                            • 点击工作空间,找到知识库

                                                                                                                                                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                            • 然后根据提示创建知识库

                                                                                                                                                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                              • 上传文件或目录即可

                                                                                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                Docker安装AnythingLLM

                                                                                                                                                                GitHub官网

                                                                                                                                                                AnythingLLM是一个全栈应用程序,可以使用现成的商业大语言模型或流行的开源大语言模型,再结合向量数据库解决方案构建一个私有ChatGPT,不再受制于人:可以本地运行,也可以远程托管,并能够与提供的任何文档智能聊天。

                                                                                                                                                                • AnythingLLM的一些酷炫特性:

                                                                                                                                                                  多用户实例支持和权限管理

                                                                                                                                                                  工作区内的智能体Agent(浏览网页、运行代码等)

                                                                                                                                                                  为您的网站定制的可嵌入聊天窗口

                                                                                                                                                                  支持多种文档类型(PDF、TXT、DOCX等)

                                                                                                                                                                  通过简单的用户界面管理向量数据库中的文档

                                                                                                                                                                  两种对话模式:聊天和查询。聊天模式保留先前的对话记录。查询模式则是是针对您的文档做简单问答

                                                                                                                                                                  聊天中会提供所引用的相应文档内容

                                                                                                                                                                  100%云部署就绪。

                                                                                                                                                                  “部署你自己的LLM模型”。

                                                                                                                                                                  管理超大文档时高效、低耗。只需要一次就可以嵌入(Embedding)一个庞大的文档或文字记录。比其他文档聊天机器人解决方案节省90%的成本。

                                                                                                                                                                  全套的开发人员API,用于自定义集成!

                                                                                                                                                                • 使用Docker安装部署

                                                                                                                                                                  官网文档

                                                                                                                                                                • 创建持续化存储目录

                                                                                                                                                                  export STORAGE_LOCATION=$HOME/anythingllm && \
                                                                                                                                                                  mkdir -p $STORAGE_LOCATION && \
                                                                                                                                                                  touch "$STORAGE_LOCATION/.env" 
                                                                                                                                                                  
                                                                                                                                                                  • 给目录授权,不然容器创建后会自动退出
                                                                                                                                                                    chmod -R 777 $HOME/anythingllm
                                                                                                                                                                    
                                                                                                                                                                    • 启动容器
                                                                                                                                                                      docker run -d -p 3001:3001 \
                                                                                                                                                                      --cap-add SYS_ADMIN \
                                                                                                                                                                      -v ${STORAGE_LOCATION}:/app/server/storage \
                                                                                                                                                                      -v ${STORAGE_LOCATION}/.env:/app/server/.env \
                                                                                                                                                                      -e STORAGE_DIR="/app/server/storage" \
                                                                                                                                                                      mintplexlabs/anythingllm
                                                                                                                                                                      
                                                                                                                                                                      root@huhy:~# docker ps
                                                                                                                                                                      CONTAINER ID   IMAGE                      COMMAND                  CREATED             STATUS                    PORTS                                       NAMES
                                                                                                                                                                      97d2a4adf7d4   mintplexlabs/anythingllm   "/bin/bash /usr/loca…"   About an hour ago   Up 42 seconds (healthy)   0.0.0.0:3001->3001/tcp, :::3001->3001/tcp   sweet_spence
                                                                                                                                                                      
                                                                                                                                                                      • 界面访问:http://localhost:3001

                                                                                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                        • 配置Ollaman连接

                                                                                                                                                                          基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                        • 配置用户设置

                                                                                                                                                                          基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                          • 创建工作区域

                                                                                                                                                                            基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                            • 点击左下角小扳手进入设置页面

                                                                                                                                                                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                              • 可以配置模型提供商信息,以及自定义外观界面等

                                                                                                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                配置本地知识库
                                                                                                                                                                                • 上传文档搭建本地知识库

                                                                                                                                                                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                  • 选中文档后移动到工作区huhy保存即可

                                                                                                                                                                                    基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                    基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                    • 开始根据知识库问答

                                                                                                                                                                                      基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                      Docker安装RAGFlow

                                                                                                                                                                                      GitHub官网

                                                                                                                                                                                      RAGFlow是一款基于深度文档理解的开源 RAG(检索增强生成)引擎。它为任何规模的企业提供简化的 RAG 工作流程,结合 LLM(大型语言模型)提供真实的问答功能,并以来自各种复杂格式数据的合理引证为后盾。

                                                                                                                                                                                      官方文档

                                                                                                                                                                                      • 下载软件包
                                                                                                                                                                                        git clone https://github.com/infiniflow/ragflow.git
                                                                                                                                                                                        
                                                                                                                                                                                        • 如果网络问题,可界面下载上传

                                                                                                                                                                                          基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                          unzip ragflow-main.zip
                                                                                                                                                                                          cd ragflow-main/
                                                                                                                                                                                          
                                                                                                                                                                                          • RAGFlow 版本镜像的描述:
                                                                                                                                                                                            RAGFlow镜像标签镜像大小 (GB)有嵌入模型和 Python 包吗?稳定性
                                                                                                                                                                                            v0.16.0≈9✔️稳定版本
                                                                                                                                                                                            v0.16.0-slim≈2稳定版本
                                                                                                                                                                                            nightly≈9✔️不稳定的夜间构建
                                                                                                                                                                                            nightly-slim≈2不稳定的夜间构建
                                                                                                                                                                                            • 默认使用不带嵌入模型的镜像
                                                                                                                                                                                              root@huhy:~/ragflow-main# cat docker/.env | grep RAGFLOW_IMAGE
                                                                                                                                                                                              RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0-slim
                                                                                                                                                                                              # RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0
                                                                                                                                                                                              # RAGFLOW_IMAGE=swr.cn-north-4.myhuaweicloud.com/infiniflow/ragflow:nightly-slim
                                                                                                                                                                                              # RAGFLOW_IMAGE=registry.cn-hangzhou.aliyuncs.com/infiniflow/ragflow:nightly-slim
                                                                                                                                                                                              # RAGFLOW_IMAGE=swr.cn-north-4.myhuaweicloud.com/infiniflow/ragflow:nightly
                                                                                                                                                                                              # RAGFLOW_IMAGE=registry.cn-hangzhou.aliyuncs.com/infiniflow/ragflow:nightly
                                                                                                                                                                                              
                                                                                                                                                                                              • 启动Compose文件
                                                                                                                                                                                                docker compose -f docker/docker-compose.yml up -d
                                                                                                                                                                                                
                                                                                                                                                                                                root@huhy:~/ragflow-main# docker compose -f docker/docker-compose.yml ps
                                                                                                                                                                                                WARN[0000] The "HF_ENDPOINT" variable is not set. Defaulting to a blank string.
                                                                                                                                                                                                WARN[0000] The "MACOS" variable is not set. Defaulting to a blank string.
                                                                                                                                                                                                NAME             IMAGE                                              COMMAND                  SERVICE   CREATED         STATUS                   PORTS
                                                                                                                                                                                                ragflow-es-01    elasticsearch:8.11.3                               "/bin/tini -- /usr/l…"   es01      3 minutes ago   Up 3 minutes (healthy)   9300/tcp, 0.0.0.0:1200->9200/tcp, [::]:1200->9200/tcp
                                                                                                                                                                                                ragflow-minio    quay.io/minio/minio:RELEASE.2023-12-20T01-00-02Z   "/usr/bin/docker-ent…"   minio     3 minutes ago   Up 3 minutes             0.0.0.0:9000-9001->9000-9001/tcp, :::9000-9001->9000-9001/tcp
                                                                                                                                                                                                ragflow-mysql    mysql:8.0.39                                       "docker-entrypoint.s…"   mysql     3 minutes ago   Up 3 minutes (healthy)   33060/tcp, 0.0.0.0:5455->3306/tcp, [::]:5455->3306/tcp
                                                                                                                                                                                                ragflow-redis    valkey/valkey:8                                    "docker-entrypoint.s…"   redis     3 minutes ago   Up 3 minutes             0.0.0.0:6379->6379/tcp, :::6379->6379/tcp
                                                                                                                                                                                                ragflow-server   infiniflow/ragflow:v0.16.0-slim                    "./entrypoint.sh"        ragflow   3 minutes ago   Up 3 minutes             0.0.0.0:80->80/tcp, :::80->80/tcp, 0.0.0.0:443->443/tcp, :::443->443/tcp, 0.0.0.0:9380->9380/tcp, :::9380->9380/tcp
                                                                                                                                                                                                
                                                                                                                                                                                                • 前端界面访问:http://IP

                                                                                                                                                                                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                  • 创建账户

                                                                                                                                                                                                    基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                    基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                    • 添加模型

                                                                                                                                                                                                      基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                      • 配置ollama

                                                                                                                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                        • 添加系统模型

                                                                                                                                                                                                          基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                          配置本地知识库
                                                                                                                                                                                                          • 创建知识库后添加文件

                                                                                                                                                                                                            基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                            基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                            • 上传后点击解析

                                                                                                                                                                                                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                              • 新建助理

                                                                                                                                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                Docker安装FastGPT

                                                                                                                                                                                                                官网

                                                                                                                                                                                                                FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。同时可以通过 Flow 可视化进行工作流编排,从而实现复杂的问答场景!

                                                                                                                                                                                                                FastGPT 能力

                                                                                                                                                                                                                1. 专属 AI 客服

                                                                                                                                                                                                                  通过导入文档或已有问答对进行训练,让 AI 模型能根据你的文档以交互式对话方式回答问题。

                                                                                                                                                                                                                2. 简单易用的可视化界面

                                                                                                                                                                                                                  FastGPT 采用直观的可视化界面设计,为各种应用场景提供了丰富实用的功能。通过简洁易懂的操作步骤,可以轻松完成 AI 客服的创建和训练流程。

                                                                                                                                                                                                                3. 自动数据预处理

                                                                                                                                                                                                                  提供手动输入、直接分段、LLM 自动处理和 CSV 等多种数据导入途径,其中“直接分段”支持通过 PDF、WORD、Markdown 和 CSV 文档内容作为上下文。FastGPT 会自动对文本数据进行预处理、向量化和 QA 分割,节省手动训练时间,提升效能。

                                                                                                                                                                                                                4. 工作流编排

                                                                                                                                                                                                                  基于 Flow 模块的工作流编排,可以帮助你设计更加复杂的问答流程。例如查询数据库、查询库存、预约实验室等。

                                                                                                                                                                                                                5. 强大的 API 集成

                                                                                                                                                                                                                  FastGPT 对外的 API 接口对齐了 OpenAI 官方接口,可以直接接入现有的 GPT 应用,也可以轻松集成到企业微信、公众号、飞书等平台。

                                                                                                                                                                                                                FastGPT 特点

                                                                                                                                                                                                                • 项目开源

                                                                                                                                                                                                                  FastGPT 遵循附加条件 Apache License 2.0 开源协议,你可以 Fork 之后进行二次开发和发布。FastGPT 社区版将保留核心功能,商业版仅在社区版基础上使用 API 的形式进行扩展,不影响学习使用。

                                                                                                                                                                                                                • 独特的 QA 结构

                                                                                                                                                                                                                  针对客服问答场景设计的 QA 结构,提高在大量数据场景中的问答准确性。

                                                                                                                                                                                                                • 可视化工作流

                                                                                                                                                                                                                  通过 Flow 模块展示了从问题输入到模型输出的完整流程,便于调试和设计复杂流程。

                                                                                                                                                                                                                • 无限扩展

                                                                                                                                                                                                                  基于 API 进行扩展,无需修改 FastGPT 源码,也可快速接入现有的程序中。

                                                                                                                                                                                                                • 便于调试

                                                                                                                                                                                                                  提供搜索测试、引用修改、完整对话预览等多种调试途径。

                                                                                                                                                                                                                • 支持多种模型

                                                                                                                                                                                                                  支持 GPT、Claude、文心一言等多种 LLM 模型,未来也将支持自定义的向量模型。

                                                                                                                                                                                                                  官网部署文档

                                                                                                                                                                                                                  mkdir fastgpt
                                                                                                                                                                                                                  cd fastgpt
                                                                                                                                                                                                                  curl -O https://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/config.json
                                                                                                                                                                                                                  # pgvector 版本(测试推荐,简单快捷)
                                                                                                                                                                                                                  curl -o docker-compose.yml https://raw.githubusercontent.com/labring/FastGPT/main/deploy/docker/docker-compose-pgvector.yml
                                                                                                                                                                                                                  # milvus 版本
                                                                                                                                                                                                                  # curl -o docker-compose.yml https://raw.githubusercontent.com/labring/FastGPT/main/deploy/docker/docker-compose-milvus.yml
                                                                                                                                                                                                                  # zilliz 版本
                                                                                                                                                                                                                  # curl -o docker-compose.yml https://raw.githubusercontent.com/labring/FastGPT/main/deploy/docker/docker-compose-zilliz.yml
                                                                                                                                                                                                                  

                                                                                                                                                                                                                  修改yaml文件

                                                                                                                                                                                                                  FE_DOMAIN=http://IP:3000
                                                                                                                                                                                                                  

                                                                                                                                                                                                                  启动容器

                                                                                                                                                                                                                  docker-compose up -d
                                                                                                                                                                                                                  

                                                                                                                                                                                                                  等待10s,OneAPI第一次总是要重启几次才能连上Mysql

                                                                                                                                                                                                                  sleep 10
                                                                                                                                                                                                                  

                                                                                                                                                                                                                  重启一次oneapi(由于OneAPI的默认Key有点问题,不重启的话会提示找不到渠道,临时手动重启一次解决,等待作者修复)

                                                                                                                                                                                                                  docker restart oneapi
                                                                                                                                                                                                                  

                                                                                                                                                                                                                  如果拉取不了镜像,可网盘获取:

                                                                                                                                                                                                                  通过网盘分享的文件:fastgpt_images.tar

                                                                                                                                                                                                                  链接: https://pan.baidu.com/s/1G6Dv_5ie7PiQMytd4jyNNQ?pwd=q9ht 提取码: q9ht

                                                                                                                                                                                                                  • 登录One Api :官网配置说明

                                                                                                                                                                                                                    root:123456

                                                                                                                                                                                                                    基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                    • 在 One API 中添加对应渠道,直接点击 【添加基础模型】,不要遗漏了向量模型(Embedding)

                                                                                                                                                                                                                      基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                      基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                      基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                      基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                      • 查看令牌

                                                                                                                                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                        • 登录FastGPT:官网配置说明

                                                                                                                                                                                                                          root:1234

                                                                                                                                                                                                                          基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                          • 配置连接模型

                                                                                                                                                                                                                            基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                            基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                            基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                            配置本地知识库
                                                                                                                                                                                                                            • 添加索引模型

                                                                                                                                                                                                                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                              • 创建知识库

                                                                                                                                                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                • 上传文件

                                                                                                                                                                                                                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                  基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                  • 创建简易应用

                                                                                                                                                                                                                                    基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                    • 进行调试

                                                                                                                                                                                                                                      基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                      • 关联知识库

                                                                                                                                                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                        基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                        • 保存当前配置

                                                                                                                                                                                                                                          基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                          • 选择发布渠道

                                                                                                                                                                                                                                            基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                            • 创建访问链接

                                                                                                                                                                                                                                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                              基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

                                                                                                                                                                                                                                              • 访问链接

                                                                                                                                                                                                                                                基于Ollama安装deepseek-r1模型搭建本地知识库(Dify、MaxKb、Open-WebUi、AnythingLLM、RAGFlow、FastGPT)

免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理! 图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库和百度,360,搜狗等多加搜索引擎自动关键词搜索配图,如有侵权的图片,请第一时间联系我们。

相关阅读

目录[+]

取消
微信二维码
微信二维码
支付宝二维码