搭建本地AI大模型备忘(ollama+qwen)一
以Linux为例:
- 安装Ollama:
curl -fsSL https://ollama.com/install.sh | sh
修改环境变量:
通过调用 systemctl edit ollama.service编辑systemd服务。这将打开一个编辑器。
或者创建 /etc/systemd/system/ollama.service.d/environment.conf配置文件[Service] Environment="OLLAMA_HOST=0.0.0.0"
并重启
systemctl daemon-reload systemctl restart ollama
部署模型
仓库: https://ollama.com/search
运行: ollama run 模型名:版本号