DeepSeek本地部署教程

DeepSeek可以在网页端使用,但是有些时候可能不是很稳定,除了网页端,也能通过本地部署来使用。下面就一起来看看吧

配置要求

  1. Windows 配置
    • 最低要求:NVIDIA GTX 1650 4GB 或 AMD RX 5500 4GB,16GB 内存,50GB 存储空间
    • 推荐配置:NVIDIA RTX 3060 12GB 或 AMD RX 6700 10GB,32GB 内存,100GB NVMe SSD
    • 高性能配置:NVIDIA RTX 3090 24GB 或 AMD RX 7900 XTX 24GB,64GB 内存,200GB NVMe SSD
  2. Mac 配置
    • 最低要求:M2 MacBook Air(8GB 内存)
    • 推荐配置:M2/M3 MacBook Pro(16GB 内存)
    • 高性能配置:M2 Max/Ultra Mac Studio(64GB 内存)

本地部署工具Ollama使用方法

1. 在加速界面可一键下载(windows版本)

2. 安装完成

3. 按Win键输入cmd打开并输入【Ollama】后按下回车,如下图所示即为安装成功;

4. 安装命令如下:安装完成后出现【success】则代表安装成功

1. 内存低于4GB安装命令如下:

ollama run deepseek-r1:1.5b

2. 内存在8GB-12GB安装命令如下:

ollama run deepseek-r1:7b
ollama run deepseek-r1:8b

3.内存在12GB以上安装命令如下:

ollama run deepseek-r1:14b

4.内存在32GB以上安装命令如下:

ollama run deepseek-r1:32b

5.内存在70GB以上安装命令如下:

ollama run deepseek-r1:70b

注意:内存越高,效果越好,但占用储存会更多。

5. 此时我们可以直接在终端下提问,DeepSeek-R1会在终端下回答。

但是在终端界面提问的话,很不方便,每次提问都需要输入指令,可参考下方可视化以便后续试用

安装可视化WebUI客户端

提示:此WebUI需要搭配Chrome浏览器,请提前下载Chrome,在Chrome中运行。
chrome下载链接:https://www.google.cn/chrome/
WebUI下载:https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo

  • 打开浏览器插件,如果可以看到“Ollama is running”代表插件已经识别到Ollama。
  • 点击左上方“Select a Model”,选择“DeepSeek-R1”
  • 选择完成后,在页面右上角点击小齿轮图标进入设置。
  • 在左侧的“RAG Settings”中,把右侧的Embedding Model选择成“DeepSeek-R1”
  • 最后点击右下角的“Save”,后续就可以在WebUI端使用啦~

你也可能喜欢

评论已经被关闭。

插入图片
返回顶部