ubuntu 部署deepseek
方案
在ubuntu中安装ollama,将下载完的deepseek模型部署到ollama中,完成部署。ui采用open-webui,通过docker部署,以防服务器8080端口冲突,再连接ollama的api端口,即可实现在网页端使用deepseek语言模型。
一、安装ollama
Ollama的官网地址为:https://ollama.com 可直接从官网下载适合自己本地环境的版本,Linux、Windows和MacOS都有相应的支持。可在选择好后,点击下载,在下载中暂停下载,右键复制链接到ubuntu命令行中,通过wget http://example.com/file.zip
指令下载文件。
二、部署模型
方案一: ollama pull deepseek-r1:14b
直接部署需要的模型,操作有些类似docker,但是他的模型有限,不能安装精简版本的,如DeepSeek-8B-Q4.Modelfile,等缩水模型.
方案二:
可前往https://huggingface.co/TheBlokeHuggingFace模型库搜索DeepSeek-R1-Distill-Llama-8B-GGUF,找到类似deepseek-r1-distill-llama-8b.Q4_K_M.gguf的文件并下载至服务器。
创建Ollama Modelfile
新建文件DeepSeek-8B-Q4.Modelfile,内容如下:
FROM /models/deepseek-r1-distill-llama-8b.Q4_K_M.gguf # 替换为你的GGUF路径 |
构建模型(命名为deepseek-8b-q4)
ollama create deepseek-8b-q4 -f DeepSeek-8B-Q4.Modelfile
启动推理
ollama run deepseek-8b-q4
### 三、UI界面
docker安装
`docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://sv.laohu.space:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main`
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 LaohuのBlog!
评论