Ollama : une app pour exécuter les LLM localement
L'application Ollama permet d'exécuter localement des LLM. L'app supporte Gemma 3, QwQ, DeepSeek, Llama, Phi 4, Mistal, Granite, etc. Les LLM vont du très gros modèles de 245 Go aux modèles plus légers de 2,5 Go. L'application importe aussi les modèles GGUF dans le modelfil. Ollama met d'abord en...