Open28日前にコメント追加3ローカルLLMれぐ29日前に更新https://ollama.com/download ollama run llama3.2 れぐ29日前に更新https://github.com/open-webui/open-webui https://note.com/lucas_san/n/nc4b2650ca07a docker desktop必要 docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main れぐ28日前に更新PCの起動毎度 Docker Desktopの起動 ollama の起動 localhostにアクセス ollama serve など、起動が必要
れぐ29日前に更新https://github.com/open-webui/open-webui https://note.com/lucas_san/n/nc4b2650ca07a docker desktop必要 docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main