macOS本地通过Ollama部署DeepSeek-R1-Distill-Qwen-1.5B

本地尝试部署,给自己一个感性认识:

Ollma

Ollma.com 提供了不同大语言模型本地化运行,其中包含了 DeepSeek-R1 :

Ollama: deepseek-r1 页面提供了不同模型运行命令以及对应显存要求:

../../_images/ollama_deepseek.png
  • 选择最小的 1.5b ,所以对应运行命令就是:

通过Ollma运行最小的一个deepseek-r1蒸馏模型
ollama run deepseek-r1:1.5b

Ollma运行会自动下载对应模型并运行,但是字符界面交互不方便

Chatbox

参考 如何将 Chatbox 连接到远程 Ollama 服务:逐步指南 下载Chatbox桌面版本: 我下载的是 macOS Intel 版本

  • 运行Chatbox,在设置中选择模型提供方 Ollama ,就可以在模型下拉框中看到刚才运行的本地模型,点击保存后就可以开始对话

  • Chatbox也可以连接远程Ollama服务,不过要求Ollma服务配置成暴露在本地网络中以便Chatbox可以访问:

    • 为了安全,也可以通过 SSH隧道 来构建本地回环地址到远程服务器的回环地址的通道(Ollama服务端口默认是 11434 ),这样对于Chatbox来说依然是连接本地服务(实际映射到远程服务器上)

    • Ollama的远程服务设置参考 如何将 Chatbox 连接到远程 Ollama 服务:逐步指南 ,简单来说就是设置 OLLAMA_HOSTOLLAMA_ORIGINS 两个环境变量

参考