Ollama
Executez des LLM open source localement sur votre machine en une seule commande.
Presentation
Ollama est un outil open source qui permet d'executer des grands modeles de langage (LLM) localement sur votre ordinateur avec une simplicite remarquable. Une seule commande ("ollama run llama4") suffit pour telecharger et lancer un modele.
Ollama supporte des dizaines de modeles : Llama 4 (Scout/Maverick), Mistral Large 3, Phi, Gemma, CodeLlama, et bien d'autres. Les modeles sont automatiquement optimises (quantises) pour votre materiel. L'API locale est compatible avec le format OpenAI, facilitant l'integration.
C'est l'outil de reference pour quiconque veut utiliser l'IA localement, que ce soit pour la vie privee, le developpement ou l'experimentation sans frais d'API.
Tarification
Entierement gratuit et open source