Ollama 可以实现本地运行大模型,效率高提高隐私,只需要相对简单的几个步骤,附上指南,大家可以试试 安装步骤如下,我会回复站短,提供快捷安装包 步骤1:安装Ollama 步骤2:打开启用或关闭windows功能,勾选适用于Linux的windows子系统 步骤3:安装Docker desktop 步骤4:重启笔记本电脑 步骤5:管理员权限打开终端,运行: docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 步骤6:将模型文件放到如下路径/C:\Users\你的主机名字\.ollama 步骤7:浏览器输入http://127.0.0.1:3000 进行访问