LLM local
Un « LLM local » signifie simplement que l’IA fonctionne sur votre matériel, sans cloud ni compte, et que vos données restent chez vous
Comment faire : on peut utiliser un installateur de LLM local : Ollama, LM Studio (qui lui n’est pas open source) ou Gaia (open source). Derrière, les LLM sont du Llama, du Gemma (la famille de SLM — small language model — de Google dérivée de Gemini), du Mistral, du DeepSeek ou du Qwen, les seuls modèles mainstream à peu près réellement open source.