Platformele de infrastructură AI sunt ținte atractive pentru hackeri deoarece conțin date valoroase, algoritmi sofisticați și resurse computaționale semnificative. O vulnerabilitate recent descoperită în platforma Ollama AI permite atacatorilor să execute cod de la distanță, ceea ce subliniază necesitatea unor măsuri de securitate îmbunătățite.
TL;DR
O vulnerabilitate critică de execuție de cod de la distanță (CVE-2024-37032), denumită „Probllama”, a fost descoperită în platforma de infrastructură Ollama AI. Utilizatorii sunt sfătuiți să actualizeze la versiunea 0.1.34 sau ulterioară pentru a se proteja împotriva atacurilor.
Vulnerabilitatea platformei Ollama AI
Cercetătorii în securitate cibernetică de la Wiz Research au descoperit o vulnerabilitate critică în platforma de infrastructură Ollama AI, care permite atacatorilor să execute cod de la distanță. Această vulnerabilitate, cunoscută sub numele de „CVE-2024-37032” sau „Probllama”, afectează un proiect open-source popular pentru implementarea modelelor AI.
Măsuri de remediere
Vulnerabilitatea a fost dezvăluită responsabil și a fost remediată. Utilizatorii sunt încurajați să actualizeze la versiunea Ollama 0.1.34 sau ulterioară. Până la data de 10 iunie, multe instanțe Ollama expuse la internet încă utilizau versiuni vulnerabile, evidențiind necesitatea actualizării pentru a preveni eventualele atacuri.
Detalii tehnice
Ollama, un proiect open-source cu peste 70.000 de stele pe GitHub, a fost expus la atacuri din cauza lipsei unor caracteristici standard de securitate precum autentificarea. Cercetătorii de la Wiz au descoperit că serverul Ollama permite suprascrierea arbitrară a fișierelor și execuția de cod la distanță, în special pe instalările Docker care operează sub privilegii de root.
Vulnerabilitatea este cauzată de validarea insuficientă a inputurilor în endpoint-ul /api/pull, care permite traversarea căilor prin fișiere manifest malițioase din registre private. Aceasta poate duce la citirea și scrierea arbitrară a fișierelor, iar pe instalările Docker cu privilegii de root, poate escalada în execuția de cod la distanță prin manipularea fișierului /etc/ld.so.preload pentru a încărca o bibliotecă partajată malițioasă.
Recomandări de securitate
Echipele de securitate sunt sfătuite să actualizeze imediat instanțele Ollama și să evite expunerea lor la internet fără autentificare. Deși instalările pe Linux se leagă implicit la localhost, implementările pe Docker expun serverul API publicului, crescând semnificativ riscul de exploatare la distanță.
Sursa articolului:
https://gbhackers.com/ollama-ai-platform-remote-code-execution-flaw/