dans docker hub --> ollama --> pull
ensuite cela apparait dans image
on peut démarrer l'image (nom : ollama_test, port : 11434)
cela créé une entrée dans containers
se connecter à http://localhost:11434
pour installer un modèle en ligne de commande pour Windows --> Invoke-WebRequest -Uri "http://localhost:11434/api/pull" -Method POST -Body '{"name": "llama3"}' -ContentType "application/json"
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
puis le container est lancé et on peut l'atteindre avec http://localhost:3000 (user, mdp)
Aucun commentaire:
Enregistrer un commentaire