我用的是MacBook M1版,装完OLLMA后,基本还算是顺畅。要装DeepSeek R1先要装OLLMA。
第一步:ollama.com上下载macos版本
第二步:下载模型
打开终端,运行下面的命令,下载llama3模型权重。有8B和70B模型,需要用哪个就下载哪个。8B模型4.7GB,70B模型39GB。如果是自己日常使用,建议8B就可以了。
首先在mac中打开终端。(快捷键:Command + Space,输入 Terminal)
第三步输入ollama pull llama3
ollama pull llama3
第四步:安装docker和open webui
4.1安装 Docker
如果 Mac 上没有安装 Docker,可以前往Docker 官网(docker.com)下载适合 Mac 的版本进行安装。安装完成后,打开 Docker 程序并注册一个 Docker 账号。
4.2安装OPEN WEBUI
打开终端,输入以下命令
代码如下
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
这条命令将会拉取最新的 Open WebUI 镜像,并将其映射到主机的 3000 端口上,还设置了持久化存储路径以及自动重启策略。
安装完成后,在浏览器中访问http://localhost:3000
,首次访问时建议创建一个管理员账户,之后就可以根据具体需求选择相应的模型进行使用了
第五步安装DeepSeek R1
5.1下载 DeepSeek 模型
打开 Mac 终端,在终端中输入以下命令来下载 DeepSeek 模型(以下载 8b 版本为例):
代码:ollama pull deepseek-r1:8b
5.2运行 DeepSeek 模型
下载完成后,在终端中输入以下命令来运行 DeepSeek 模型:
运行 DeepSeek 模型
下载完成后,在终端中输入以下命令来运行 DeepSeek 模型:
ollama run deepseek-r1:8b
下图为下载和运行DeepSeek的图片
第六步:在 Open Web UI 中配置 DeepSeek
- 打开 Open Web UI 应用程序。
- 在 Open Web UI 的设置中,找到模型提供方的选项,选择 “Ollama”。
- 在模型列表中,选择已安装的 DeepSeek 模型(如 deepseek-r1:8b)。
有人会问这个部署了有什么用?
第一:数据安全
第二:以及可以对接微信个人号,做客服。我在做一个自动算命的项目,用这个模式,一个初中生每周赚了700多人民币。
感谢点赞,转发,留言,点赞多了,就公布下这个小项目的全部方案。

评论