SLM (Small Language Model)
Petit modele de langage (moins de 10B parametres), optimise pour tourner localement sur des appareils limites.
Les SLM (Small Language Models) sont des modeles de langage compacts, generalement avec moins de 10 milliards de parametres, concus pour etre efficaces et deployables sur des appareils a ressources limitees.
Exemples populaires :
- • Phi-3 Mini (Microsoft) : 3.8B parametres
- • Gemma 2 (Google) : 2B et 9B parametres
- • Llama 4 Scout (Meta) : 17B parametres, architecture MoE
- • Mistral 7B (Mistral AI) : 7B parametres
Cas d'usage :
- • Execution sur smartphone ou laptop
- • Applications embarquees (IoT, robotique)
- • Respect de la vie privee (traitement local)
- • Faible latence et faible cout
Les SLM representent une tendance importante : plutot que de toujours chercher a augmenter la taille des modeles, on optimise des modeles plus petits pour des performances comparables sur des taches specifiques.