Mac M1/M2芯片本地部署DeepSeek-R1全攻略|Ollama+OpenWebUI保姆级教程

网络资源
8 0
Mac 上使用 Ollama 运行 DeepSeek-R1,并通过 Open-WebUI 的 Web 网页访问。

环境准备

硬件要求

  1. 必须:配备M1/M2/M3芯片的Mac(建议Pro机型)
  2. 内存:最低16GB(推荐32GB用于复杂任务)
  3. 硬盘:预留50GB空间(模型文件+容器存储)

Ollama安装

Ollama官方:
Ollama 是一个轻量级的 AI 推理框架,支持本地运行 LLM(大型语言模型)。首先,下载并安装 Ollama。

mac原生工具brew安装ollama

$ brew install --cask ollama

检查Ollama是否安装成功,成功会显示版本号,如:ollama version is 0.5.13

$ ollama --version
Warning: could not connect to a running Ollama instance
Warning: client version is 0.5.13

拉取DeepSeek-R1模型

下载 DeepSeek-R1 模型
模型下载地址:https://ollama.ai/library/deepseek-r1

该命令会自动下载 DeepSeek-R1 1.5B 版本的模型,并存储在本地。

下载 DeepSeek-R1 1.5B 版本的模型命令符

$  ollama pull deepseek-r1:7b
pulling manifest
pulling 96c415656d37... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████▏ 4.7 GB
pulling 369ca498f347... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████▏  387 B
pulling 6e4c38e1172f... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████▏  148 B
pulling 40fb844194b2... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████▏  487 B
verifying sha256 digest
writing manifest
success

运行 DeepSeek-R1

执行后,终端会进入交互模式,可以直接输入文本与模型进行对话。

# 查看已下载的模型
$ ollama list
NAME              ID              SIZE      MODIFIED
deepseek-r1:7b    0a8c26691023    4.7 GB    24 seconds ago
# 运行模型
$ ollama run deepseek-r1:7b
>>> Send a message (/? for help)

Open-WebUI 运行

使用 Web 界面交互模型,可以安装 Open-WebUI。该工具提供了一个用户友好的 Web 前端,使得 DeepSeek-R1 更加易用。
[collapse status="collapse-block" label="克隆 Open-WebUI 仓库"]

git clone https://github.com/open-webui/open-webui.git

启动 Open-WebUI 容器
mac安装docker,安装完成后应用程序中会有docker程序,点击即可启动

brew install --cask --appdir=/Applications docker

启动docker

docker run -d \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main
  • -p 3000:8080:将容器的 8080 端口映射到本机 3000 端口;
  • --add-host=host.docker.internal:host-gateway:允许容器访问宿主机网络;
  • -v open-webui:/app/backend/data:挂载数据存储目录,保存容器的状态和数据。
  • --restart always:确保容器在重启后自动运行;
  • ghcr.io/open-webui/open-webui:main:拉取 Open-WebUI 的最新版本镜像。

运行容器后,访问 http://localhost:3000 即可访问 Open-WebUI。

docker相关命令

#停止容器
docker stop open-webui
#删除容器
docker rm open-webui
#删除存储数据
docker volume rm open-webui
最后更新 2025-03-07
评论 ( 0 )
OωO
隐私评论