llama3本地环境配置(llama3本地环境配置)
walkman 2024/4/25 AI大模型Ollamallama3
# llama3本地环境配置(llama3本地环境配置)
# 下载并安装Ollama
# 下载模型
ollama pull llama3:8b
1
# 配置OpenWebUI(docker方式)
安装open-webui
拉取webui的docker镜像
docker pull ghcr.io/open-webui/open-webui:main
1
- 启动webui
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
1
- 访问webui
在浏览器中输入下面的地址,访问webui
http://localhost:3000
1