Descriere:
Am mai prezentat câteva variante experimentale anterior, dar astăzi îți voi arăta o soluție completă, pas cu pas.
Primul pas: Instalarea driverelor video
Presupunând că serverul Linux este deja instalat, vom începe prin instalarea driverelor video pentru plăcile NVIDIA.
Ce trebuie să faci:
- Copiază și rulează comenzile de mai jos, în ordine, pe serverul tău.
 - Atenție la pasul 3:
- Se va afișa o listă de drivere disponibile.
 - Găsește driverul marcat ca „recomandat” și reține numărul asociat.
 
 - Înainte de a executa comanda 4, înlocuiește „XXX” cu numărul reținut.
 
sudo apt install linux-headers-$(uname -r) build-essential -y
sudo add-apt-repository ppa:graphics-drivers/ppa sudo apt update
ubuntu-drivers devices
sudo apt install nvidia-driver-XXX -y
sudo reboot
În mod normal, driverele sunt acum instalate, dar mai este necesar să instalăm CUDA Toolkit, pentru a putea folosi capabilitățile GPU-ului.
Ce trebuie să faci:
- Rulează prima comandă de mai jos pentru a instala CUDA Toolkit.
 - Rulează a doua comandă pentru a reporni sistemul și a aplica modificările.
 
sudo apt install nvidia-cuda-toolkit -y
sudo reboot
Acum, pentru a verifica dacă totul este instalat corect, rulează comenzile de mai jos în consolă.
								nvidia-smi
nvcc --version
Înainte de a începe instalarea efectivă, trebuie să ne asigurăm că avem totul pregătit, mai exact, să calculăm câtă memorie alocăm.
Ce trebuie să faci:
- Rulează în consolă comanda de mai jos pentru a vedea memoria disponibilă.
 - Folosește calculatorul din pagină, care îți va calcula automat 90% din memorie, pentru a ști exact cât trebuie să aloci.
 
nvidia-smi --query-gpu=memory.total --format=csv
Acum vom instala Ollama împreună cu toate componentele necesare pentru a funcționa corect.
Ce trebuie să faci:
- Rulează comenzile de mai jos, una câte una.
 - După fiecare comandă, așteaptă finalizarea procesului înainte de a continua.
 - Înainte de a executa prima comandă, asigură-te că:
- Înlocuiești „XXXX” cu memoria calculată pentru GPU.
 - Setezi corect „layers” modificând cele două „XX” după descrierea din comandă.
 
 - Ultima comandă va reporni sistemul pentru a aplica toate modificările.
 
curl -fsSL https://ollama.com/install.sh | sh sudo mkdir -p /etc/ollama/ sudo bash -c 'cat > /etc/ollama/config.yaml << EOF serve: host: 0.0.0.0 port: 11434 gpu: layers: xx # 20-25 pentru plăci mai vechi, 25-35 pentru plăci mai noi memory: xxxx # aproximativ 90% din memoria totală a GPU EOF'
sudo bash -c 'cat > /etc/systemd/system/ollama.service << EOF [Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/local/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin:/usr/local/cuda/bin" Environment="OLLAMA_HOST=http://0.0.0.0:11434" Environment="LD_LIBRARY_PATH=/usr/local/cuda/lib64:\$LD_LIBRARY_PATH" Environment="CUDA_VISIBLE_DEVICES=0" [Install] WantedBy=multi-user.target EOF' sudo systemctl daemon-reload sudo systemctl enable ollama sudo systemctl start ollama
sudo apt update sudo apt install -y docker.io sudo usermod -aG docker $USER newgrp docker
docker stop open-webui 2>/dev/null || true docker rm open-webui 2>/dev/null || true docker run -d -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ -e OLLAMA_API_BASE_URL=http://host.docker.internal:11434/api \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main
sudo reboot
Dacă ai ajuns până aici, Ollama ar trebui să fie funcțional.
- Poți accesa serverul din browser folosind: 
http://IP-UL-SERVERULUI:3000 - Felicitări! Serverul Ollama este up and running!
 
Pentru a actualiza Ollama, rulează simplu comanda de mai jos în consolă. Această comandă va actualiza automat Ollama pe server.
Prima comandă verifică versiunea instalată. A doua comandă verifică ultima versiune disponibilă pe server. A treia comandă efectuează efectiv 
actualizarea, iar ultima comandă verifică dacă s-a realizat actualizarea. Ultima comandă ar trebui să returneze versiunea obținută la 
comanda a doua.
ollama --version
curl -s https://api.github.com/repos/ollama/ollama/releases/latest | jq -r '.tag_name'
curl -fsSL https://ollama.com/install.sh | sh
ollama --version
Urmărește tutorialul video, unde îți explic pas cu pas cum să instalezi și să configurezi Ollama pentru a funcționa corect.
								Tutorial prezentat de: Remus @ Tutoriale IT & Tech