curl -fsSL https://ollama.com/install.sh | sh
--> ça installe dans /usr/local
ollama pull qwen2.5-coder:32b
ollama list
--> ok si on voit qwen
ollama serve
--> devrait dire http://localhost:11434
sudo apt install -y docker.io docker-compose
sudo systemctl enable --now docker
sudo usermod -aG docker $USER
newgrp docker
docker run hello-world
--> si ça affiche "Hello from Docker" c'est tout bon
docker rm -f open-webui
docker run -d \
-p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
-v open-webui:/app/backend/data \
--name open-webui \
--restart unless-stopped \
ghcr.io/open-webui/open-webui:main
--> à lancer plusieurs fois peut-être
--> ça installe open-webui sur le port 3000
dans un navigateur : http://localhost:3000
docker rm -f open-webui
SI OK POUR ALLER SUR L'INTERFACE OPENWEBUI MAIS ON VOIT PAS LE MODELE :
sudo systemctl edit ollama
-->coller ces 2 lignes dans le fichier
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
--> sauver le fichier avec le nom automatique
sudo systemctl daemon-reload
sudo systemctl restart ollama
sudo ss -ltnp | grep 11434
Delphives
8.2.26
ollama + openweb ui
4.2.26
geekbench
https://www.geekbench.com/
---
./geekbench6
https://browser.geekbench.com/v6/cpu/16419257
---
./geekbench6 --gpu Vulkan
https://browser.geekbench.com/v6/compute/5733917
---
https://www.geekbench.com/ai/
---
./banff --ai-framework OpenVINO
https://browser.geekbench.com/ai/v1/434607
25.1.26
installer wine 11 sur ubuntu
INSTALL:
----------
sudo mkdir -p /etc/apt/keyrings
wget -O - https://dl.winehq.org/wine-builds/winehq.key | sudo gpg --dearmor -o /etc/apt/keyrings/winehq-archive.key
sudo wget -NP /etc/apt/sources.list.d/ https://dl.winehq.org/wine-builds/ubuntu/dists/$(lsb_release -sc)/winehq-$(lsb_release -sc).sources !!!remplacer ${lsb_release -sc) par noble pour 24.04 p.ex
sudo apt update
sudo apt install --install-recommends winehq-stable
UNINSTALL:
----------
sudo apt remove --autoremove winehq-stable
sudo rm /etc/apt/keyrings/winehq-archive.key /etc/apt/sources.list.d/winehq*.sources
19.1.26
7.12.25
ollama webui ubuntu
curl https://ollama.com/install.sh | sh http://localhost:11434/ ollama run qwen3:30b ollama --version 26.11.25
installation environnement anaconda (miniconda)
https://www.anaconda.com/download (Anaconda3-xxxxxx-Windows-x86_64.exe)
installer python 3.12 (les nouvelles versions sont trop avancées pour la compatibilité avec certaines librairies)
dans anaconda Navigator
installer le plugin "JupyterLab" (An extensible environment for…)
dans Environments on peut créer un nouvel environnement avec les packages dont on a besoin et leur version
(ex : conda create --prefix "C:\Programmes\anaconda3\MachineLearning" python=3.12.12)
ouvrir le terminal depuis le nouvel environnement
conda install matplotlib scikit-learn pandas seaborn tensorflow
pip install --upgrade tensorflow
conda install git pydot graphviz anaconda-client
lancer juypterlab (ça devrait ouvrir l'url localhost:8888/tree)
------------------------------------------------------------------------------------------------
MINICONDA
------------------------------------------------------------------------------------------------
https://repo.anaconda.com/miniconda/
https://www.anaconda.com/docs/getting-started/miniconda/install#linux-terminal-installer
https://www.geeksforgeeks.org/machine-learning/set-up-virtual-environment-for-python-using-anaconda/
conda create -n ML_ENV python=3.12.12 anaconda //installe avec toutes les librairies scientifiques
conda activate ML_ENV
27.8.25
docker ollama
dans docker hub --> ollama --> pull
ensuite cela apparait dans image
on peut démarrer l'image (nom : ollama_test, port : 11434)
cela créé une entrée dans containers
se connecter à http://localhost:11434
pour installer un modèle en ligne de commande pour Windows --> Invoke-WebRequest -Uri "http://localhost:11434/api/pull" -Method POST -Body '{"name": "llama3"}' -ContentType "application/json"
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
puis le container est lancé et on peut l'atteindre avec http://localhost:3000 (user, mdp)