docker run -d --name llama3 --gpus all -p 8080:8080 -e OLLAMA_BASE_URL=http://127.0.0.1:11434 bucess/ollama:1 停止服务: docker stop llama3 启动服务: docker start llama3