1. 安裝 curl -fsSL https://ollama.com/install.sh | sh
輸入 ollama --version 確認安裝成功
ollama version is 0.17.4
2. 確認 Ollama 正在運行
curl http://localhost:11434
# 應該會回傳 "Ollama is running"
如果沒有回應,代表 Ollama 服務尚未啟動
執行 systemctl start ollama
3. 下載 qwen2.5:1.5b 模型(選擇適合自己的模型)
4. 直接用它聊天測試
ollama run qwen2.5:1.5b
看起來, 速度還不錯
接下來 配置到 openclaw 小龍蝦去!!!
沒有留言:
張貼留言