###
Deepseek 本地
部署指南

#### 下载 Ollama
为了实现
Deepseek 的本地
部署,首先需要下载 Ollama 工具。这一步骤对于后续的操作至关重要[^1]。
```bash
# 命令用于安装Ollama工具
pip install ollama
```
#### 启动 Ollama 服务
完成 Ollama 安装之后,启动该服务是必要的前置条件之一。通过下面的命令可以在本地环境中激活此服务:
```bash
# 启动Ollama服务
ollama start
```
#### 获取不同版本的
Deepseek 模型
依据个人需求以及硬件配置情况,可以选择适合自己的
Deepseek 版本进行加载。具体操作如下所示:
- **8B 版本**
```bash
ollama run
deepseek-r1:8b
```
- **14B 版本**
```bash
ollama run
deepseek-r1:14b
```
- **32B 版本**
```bash
ollama run
deepseek-r1:32b
```
这些指令允许用户根据 GPU 显存大小来决定最适合运行哪个规模的模型[^2]。
#### 执行本地
部署命令
最后,在确认一切准备就绪后,执行最终的
部署命令即可让
Deepseek 成功落地于用户的计算资源之上:
```bash
#
部署Deepseek至本地环境
ollama run
deepseek-r1