centos安装ollama,部署deepseek-r1
1)安装ollama
ollama run deepseek-r1:8b
2)配置模型下载目录,新建目录/www/ollama/models
vi /etc/systemd/system/ollama.service
Environment="OLLAMA_MODELS=/www/ollama/models"
配置权限
sudo chown -R ollama:ollama /www/ollama/models
sudo chmod -R 775 /www/ollama/models
sudo systemctl daemon-reload
sudo systemctl restart ollama.service
3)安装模型
ollama run deepseek-r1:8b
4)
在线的可以用siliconflow.cn的模型
https://api.siliconflow.cn
https://api.siliconflow.cn/v1
deepseek-ai/DeepSeek-V3
deepseek-ai/DeepSeek-R1
Qwen/Qwen2.5-Coder-7B-Instruct
Qwen/Qwen2.5-Coder-32B-Instruct
5) 保持模型在内存中
export OLLAMA_KEEP_ALIVE=24h
将该命令添加到你的 ~/.zshrc 文件