8.2.26

ollama + openweb ui

 curl -fsSL https://ollama.com/install.sh | sh
--> ça installe dans /usr/local
ollama pull qwen2.5-coder:32b
ollama list
--> ok si on voit qwen
ollama serve
--> devrait dire http://localhost:11434
sudo apt install -y docker.io docker-compose
sudo systemctl enable --now docker
sudo usermod -aG docker $USER
newgrp docker
docker run hello-world
--> si ça affiche "Hello from Docker" c'est tout bon
docker rm -f open-webui

docker run -d \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart unless-stopped \
  ghcr.io/open-webui/open-webui:main
--> à lancer plusieurs fois peut-être
--> ça installe open-webui sur le port 3000
dans un navigateur : http://localhost:3000
docker rm -f open-webui
SI OK POUR ALLER SUR L'INTERFACE OPENWEBUI MAIS ON VOIT PAS LE MODELE :
sudo systemctl edit ollama
-->coller ces 2 lignes dans le fichier
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
--> sauver le fichier avec le nom automatique
sudo systemctl daemon-reload
sudo systemctl restart ollama
sudo ss -ltnp | grep 11434




task manager avec npu

 https://flathub.org/en/apps/net.nokyan.Resources

4.2.26

geekbench

 https://www.geekbench.com/

 ---

  ./geekbench6

https://browser.geekbench.com/v6/cpu/16419257 

 ---

  ./geekbench6 --gpu Vulkan

 https://browser.geekbench.com/v6/compute/5733917

--- 

https://www.geekbench.com/ai/

 ---

 ./banff --ai-framework OpenVINO

https://browser.geekbench.com/ai/v1/434607

 

 

25.1.26

installer wine 11 sur ubuntu

 INSTALL:
----------

sudo mkdir -p /etc/apt/keyrings
wget -O - https://dl.winehq.org/wine-builds/winehq.key | sudo gpg --dearmor -o /etc/apt/keyrings/winehq-archive.key
sudo wget -NP /etc/apt/sources.list.d/ https://dl.winehq.org/wine-builds/ubuntu/dists/$(lsb_release -sc)/winehq-$(lsb_release -sc).sources !!!remplacer ${lsb_release -sc) par noble pour 24.04 p.ex
sudo apt update
sudo apt install --install-recommends winehq-stable

UNINSTALL:
----------
sudo apt remove --autoremove winehq-stable
sudo rm /etc/apt/keyrings/winehq-archive.key /etc/apt/sources.list.d/winehq*.sources

7.12.25

ollama webui ubuntu

 

curl https://ollama.com/install.sh | sh http://localhost:11434/ ollama run qwen3:30b ollama --version  

26.11.25

installation environnement anaconda (miniconda)

 https://www.anaconda.com/download (Anaconda3-xxxxxx-Windows-x86_64.exe)

installer python 3.12 (les nouvelles versions sont trop avancées pour la compatibilité avec certaines librairies)

dans anaconda Navigator

installer le plugin "JupyterLab" (An extensible environment for…)

dans Environments on peut créer un nouvel environnement avec les packages dont on a besoin et leur version

(ex : conda create --prefix "C:\Programmes\anaconda3\MachineLearning" python=3.12.12)

ouvrir le terminal depuis le nouvel environnement

conda install matplotlib scikit-learn pandas seaborn tensorflow 

pip install --upgrade tensorflow 

conda install git pydot graphviz anaconda-client

lancer juypterlab (ça devrait ouvrir l'url localhost:8888/tree)

------------------------------------------------------------------------------------------------

MINICONDA

------------------------------------------------------------------------------------------------

https://repo.anaconda.com/miniconda/

 https://www.anaconda.com/docs/getting-started/miniconda/install#linux-terminal-installer

https://www.geeksforgeeks.org/machine-learning/set-up-virtual-environment-for-python-using-anaconda/

conda create -n ML_ENV python=3.12.12 anaconda //installe avec toutes les librairies scientifiques

conda activate ML_ENV

 

 

27.8.25

docker ollama

 dans docker hub --> ollama --> pull

ensuite cela apparait dans image

on peut démarrer l'image (nom : ollama_test, port : 11434)

cela créé une entrée dans containers

se connecter à http://localhost:11434

pour installer un modèle en ligne de commande pour Windows --> Invoke-WebRequest -Uri "http://localhost:11434/api/pull" -Method POST -Body '{"name": "llama3"}' -ContentType "application/json"

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

puis le container est lancé et on peut l'atteindre avec http://localhost:3000 (user, mdp)