linux虚拟机部署deepseek-r1

linux虚拟机部署deepseek-r1

前言

最近ds那么火,那我也用自己的虚拟机玩一下呗。

步骤

第一步:安装Ollama

打开官方网址:https://ollama.com/download/linux ,下载Ollama linux版本,到linux虚拟机执行:curl -fsSL https://ollama.com/install.sh | sh即可。

image-20250208102632832

内网离线参考

因为我公司网络很难下载,因此只能通过离线下载后上传到虚拟机,因此参考:https://github.com/ollama/ollama/blob/main/docs/linux.md的步骤

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz

sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)
Bash

无论通过命令下载或者是直接下载包,最后都是需要通过github下载数据,因此建议使用了第三方加速服务处理了下载速度慢的问题,可参考:https://199604.com/3242 进行加速处理。

新增/etc/systemd/system/ollama.service文件

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_KEEP_ALIVE=24h"
Environment="OLLAMA_NUM_PARALLEL=4"
Environment="OLLAMA_HOST=0.0.0.0:11434"
#模型默认下载路径
Environment="OLLAMA_MODELS=/ocrdata/ollama/models"
[Install]
WantedBy=default.target

Bash

启动ollama服务

systemctl daemon-reload
systemctl restart ollama
#sudo systemctl enable ollama
Bash

验证服务是否开启,11434是核心端口,必须开启。

ss -anlp|grep 11434
Bash

登录验证
浏览器直接访问ip:11434

image-20250208103107026

出现Ollama is running,即正常。

第二步:部署Deepseek R1模型

在ollama官网上,点击Models,选择deepseek-r1,不同版本对应的体积大小不同,体积越大模型越精细化,只需要复制命令即可,我这里选择1.5b

image-20250208105426691

# 下载模型
ollama run deepseek-r1:1.5b

# 查询下载的模型
ollama list
NAME                ID              SIZE      MODIFIED
deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    10 hours ago


Bash

image-20250208105514914

模型存放文件夹:

Linux:/usr/share/ollama/.ollama/models

第三步:配置可视化界面

自行部署安装docker

本次使用open-webui作为可视化界面

也可有其他选择比如安装Chatbox AI,下载地址https://chatboxai.app/zh

运行容器命令,其他可参考手册:https://github.com/open-webui/open-webui

docker run -d -p 38080:8080 \
-e OLLAMA_BASE_URL=http://192.168.100.136:11434 \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main


#指定持久盘路径
docker run -d -p 38080:8080 \
-e OLLAMA_BASE_URL=http://192.168.100.136:11434 \
-v /data/docker/open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
Bash

访问控制台:http://ip:38080,设置好管理员账号密码登录即可开始

image-20250208112312299

image-20250208113313168

到这里,我们就完成的在linux虚拟机部署deepseek,并使用界面进行展示啦。

评论

  1. Macintosh Chrome 132.0.0.0
    2-11
    2025-2-11 17:07:59

    大佬部署个满血版出来给我用用可以吗.

    • 博主
      大雄
      Windows Edge 132.0.0.0
      2-12
      2025-2-12 8:44:51

      我看腾讯,移动啥的有满血版的api接入使用。但满血版这可能没几个公司能真的接入

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇