以下是 Ollama + DeepSeek-R1 本地模型 的详细安装教程,适用于 macOS/Linux/Windows,无需 Docker,分步操作保证可用。


1. 安装 Ollama

macOS
# 一键安装(自动识别 Apple Silicon 或 Intel)
curl -fsSL https://ollama.com/install.sh | sh
Linux
# 官方脚本安装
curl -fsSL https://ollama.com/install.sh | sh

# 或手动安装(Ubuntu/Debian)
sudo apt install -y wget
wget https://ollama.com/download/ollama-linux-amd64 -O ollama
chmod +x ollama
sudo mv ollama /usr/local/bin/
Windows
  • 直接下载安装包:Ollama Windows 版
  • 安装后需将 ollama.exe 加入系统 PATH。

2. 下载 DeepSeek-R1 模型

Ollama 支持直接拉取社区量化版模型(推荐 4-bit 量化,平衡性能与内存占用):

# 拉取模型(自动选择适合当前硬件的版本)
ollama pull deepseek-r1:7b-q4

# 验证模型
ollama list

输出示例

NAME                SIZE    MODIFIED
deepseek-r1:7b-q4   4.2 GB  2 minutes ago

3. 运行模型测试

交互式对话
ollama run deepseek-r1:7b-q4

输入问题(如 你好,你能做什么?)测试模型响应。

命令行直接调用
ollama run deepseek-r1:7b-q4 "用中文解释量子计算"

4. 启用 GPU 加速(可选)

macOS(Metal)

Ollama 默认启用 Metal 加速,可通过以下命令验证:

export OLLAMA_MMETAL=1  # 确保 Metal 加速开启
ollama run deepseek-r1:7b-q4 --verbose  # 查看日志确认 GPU 使用
Linux(NVIDIA CUDA)

需先安装 NVIDIA 驱动,然后运行:

export OLLAMA_CUDA=1
ollama run deepseek-r1:7b-q4

5. 配置 API 服务

Ollama 默认提供 HTTP API(端口 11434),可直接调用:

本地 API 测试
curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:7b-q4",
  "prompt": "如何学习深度学习?",
  "stream": false
}'
Python 调用示例
import requests

response = requests.post(
    "http://localhost:11434/api/generate",
    json={"model": "deepseek-r1:7b-q4", "prompt": "Python 的优缺点", "stream": False}
)
print(response.json()["response"])

6. 常见问题解决

问题 1:模型下载失败
  • 原因:网络问题或 Ollama 服务未启动。
  • 解决
    ollama serve &  # 确保服务在后台运行
    export ALL_PROXY=http://127.0.0.1:7890  # 如有代理需设置
    
问题 2:内存不足
  • 现象:崩溃或响应极慢。
  • 解决:改用更低量化的模型(如 deepseek-r1:7b-q2):
    ollama pull deepseek-r1:7b-q2
    
问题 3:GPU 未启用
  • 验证
    ollama run deepseek-r1:7b-q4 --verbose | grep "GPU"  # 查看日志
    
  • 解决(Linux):
    sudo apt install nvidia-cuda-toolkit  # 安装 CUDA
    export OLLAMA_CUDA=1
    

7. 进阶使用

自定义模型配置

编辑 ~/.ollama/models/manifests/registry.ollama.ai/library/deepseek-r1:7b-q4,调整参数如:

parameters:
  num_gpu_layers: 20  # 增加 GPU 计算层数
绑定到公网(谨慎操作)

通过 Nginx 反向代理(需 HTTPS):

location /ollama {
    proxy_pass http://localhost:11434;
    proxy_set_header Host $host;
}

总结

步骤 命令/操作 说明
1. 安装 Ollama `curl -fsSL https://ollama.com/install.sh sh`
2. 下载模型 ollama pull deepseek-r1:7b-q4 推荐 4-bit 量化
3. 运行测试 ollama run deepseek-r1:7b-q4 交互式对话
4. API 调用 curl http://localhost:11434/api/generate 集成到应用
Logo

GitCode 天启AI是一款由 GitCode 团队打造的智能助手,基于先进的LLM(大语言模型)与多智能体 Agent 技术构建,致力于为用户提供高效、智能、多模态的创作与开发支持。它不仅支持自然语言对话,还具备处理文件、生成 PPT、撰写分析报告、开发 Web 应用等多项能力,真正做到“一句话,让 Al帮你完成复杂任务”。

更多推荐