AI大模型安装教程
把ollama-linux-amd64.tar.zst放到下载目录里面
执行完,ollama 就装好了。
sudo tar -I zstd -xf ollama-linux-amd64.tar.zst -C /usr/local
启动 Ollama 服务。
ollama serve
等服务启动后,再新开一个终端窗口,执行:
ollama --version
创建 Ollama 专用用户
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
创建 systemd 服务文件
sudo tee /etc/systemd/system/ollama.service <<EOF [Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/local/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 [Install] WantedBy=multi-user.target EOF
重载 systemd 并启动服务
sudo systemctl daemon-reload sudo systemctl enable --now ollama
检查服务状态
sudo systemctl status ollama
再打开一个新的终端窗口,执行命令来拉取和运行模型,比如:
ollama pull qwen:1.8b
或
ollama pull qwen:7b
拉取完成测试,直接在终端输入:
ollama run qwen:7b
写一个单片机点灯的C语言代码
恭喜完成了




