当前位置:首页 > 服务器技术 > 正文内容

AI大模型安装教程

曾经2个月前 (02-26)服务器技术2175

把ollama-linux-amd64.tar.zst放到下载目录里面

执行完,ollama 就装好了。

sudo tar -I zstd -xf ollama-linux-amd64.tar.zst -C /usr/local

启动 Ollama 服务

ollama serve


等服务启动后,再新开一个终端窗口,执行:

ollama --version


创建 Ollama 专用用户

sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama

创建 systemd 服务文件

sudo tee /etc/systemd/system/ollama.service <<EOF
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

[Install]
WantedBy=multi-user.target
EOF

重载 systemd 并启动服务

sudo systemctl daemon-reload
sudo systemctl enable --now ollama

检查服务状态

sudo systemctl status ollama

再打开一个新的终端窗口,执行命令来拉取和运行模型,比如:

ollama pull qwen:1.8b

ollama pull qwen:7b



拉取完成测试,直接在终端输入:

ollama run qwen:7b
写一个单片机点灯的C语言代码


恭喜完成了

扫描二维码推送至手机访问。

版权声明:本文由珍惜发布,如需转载请注明出处。

本文链接:https://www.zp68.com/article/74.html

分享给朋友:

“AI大模型安装教程” 的相关文章

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。