llama3本地环境配置(llama3本地环境配置)

2024/4/25 AI大模型Ollamallama3

# llama3本地环境配置(llama3本地环境配置)

# 下载并安装Ollama

官网下载 (opens new window)

# 下载模型

ollama pull llama3:8b
1

# 配置OpenWebUI(docker方式)

  1. 安装open-webui

    拉取webui的docker镜像

docker pull ghcr.io/open-webui/open-webui:main
1
  1. 启动webui
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
1
  1. 访问webui

在浏览器中输入下面的地址,访问webui

http://localhost:3000
1