个人电脑快速部署DeepSeek及搭建个人知识库

本文讲解如何在个人电脑上快速部署DeepSeek模型,并基于RAG技术搭建个人知识库。

0.个人电脑配置

1.Ollama安装

Ollama是一款可实现在本地部署大模型的工具,支持目前主流的开源大模型,如deepseek、Qwen、Llama3等。在MAC、Windows、Linux操作系统上均可安装。

本地部署大模型的工具还有很多,比如LM studio等,我推荐Ollama。

Ollama官网如下:

点击Download进行下载,并双击安装,将软件图标拖动到应用中,即可安装。

2.大模型部署

使用Ollama工具进行本地大模型部署非常简单。

  • 打开mac 终端
  • 在终端中输入命令:ollama run deepseek-r1:7b,ollama便可以自动进行大模型的下载和安装,安装完成之后直接运行大模型,可以在终端内直接进行大模型交互。
  • 经过试验,7b参数量的模型,在我的个人电脑上运行非常卡顿,1.5b模型是比较顺畅的。我安装的模型如下:

但是,使用终端进行输出,界面不甚友好,因此我们安装AnythingLLM,对大模型进行可视化,同时引入个人知识库。

3.大模型本地可视化-AnythingLLM

  • 根据你机器不同操作系统和芯片,点击对应版本进行下载,我选择MacOs的Apple芯片版本进行下载。
  • 下载完成之后,双击安装,将图标拖到应用程序中完成安装。
  • 打开软件,在首页点击小扳手图标,进行大模型通用项配置。
  • 在菜单栏中,找到人工智能提供商-LLM首选项,在页面中将LLM提供商修改为Ollama,也就是使用Ollama作为大模型的部署工具,安装的所有大模型都可以选择。然后在Ollama Model中选择使用的模型。其他参数可保持默认。在进行此项配置时,需要保证Ollama软件正在运行,否则会报错。
  • 此时,我们点击返回按钮,回到主页面。并在主页面中点击新建工作区,来进行大模型的可视化页面应用。
  • 工作区的作用:工作区可以将工作环境进行隔离,比如配置不同的大模型和其他参数,有助于在不同的任务中,发挥不同大模型的优势,未来可用于不同领域知识库的搭建。
  • 在我新建的命名为普通的工作区中,在聊天设置中依然可以选择跟通用设置不同的大模型,并可以设置短期记忆的消息数量。
  • 在工作区下面,可以使用模型聊天,或者新建聊天,来开始与大模型的交互吧。

4.本地知识库搭建

本章节中,使用RAG搜索增强生成的技术,来让大模型成为一个专业领域的专家。

因为目前的大模型都是通用大模型,往往在某些垂直领域缺乏基本的专业知识,无法胜任专业领域的工作,通过RAG(搜索增强生成)技术,相当于给了大模型一个智囊库,就可以让大模型看起来更能胜任专业领域的工作。或者说大模型的知识只是截止到某一个具体时间点,比如deepseek的知识是截止到2024年7月的,后续的知识它没有,只能通过RAG或者微调的方式进行模型优化迭代。

我们依然使用AnythingLLM来实现RAG本地知识库的搭建。

  • 首先,因为需要对输入的文档进行分块处理,并加入到向量数据库,因此我们需要一个embedding model。我们可以使用Ollama进行bge-m3:latest模型的安装。
  • 然后在通用配置中,找到Embedder首选项,并使用Ollama作为嵌入引擎提供商,选择刚才安装的bge-m3:latest模型作为EmbeddingModel。其他参数都可以先默认。
  • 其次,我们新建一个金融知识库的工作空间。并点击文档上传按钮,进行知识库文档的上传。
  • 在上传文档页面,可以将需要上传的文档拖入到指定区域,或者直接填入需要查询的网址。
  • 点击上传文档后面的cached按钮,并点击move to Workspace。
  • 点击save and Embed按钮,进行文档的解析和保存工作。完成之后,就可以在与大模型的对话中,询问跟知识库相关的专业知识了。

当然,如果希望RAG知识库更加好用,还需要不断调整和优化各个参数。比如向量数据库的精细化配置、embedding模型的选择和优化等等。


评论

《“个人电脑快速部署DeepSeek及搭建个人知识库”》 有 1 条评论

  1. […] 个人电脑快速部署DeepSeek及搭建个人知识库 一文实现DeepSeek本地化部署和满血版DeepSeek服务发布 […]

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注