GPT (Generative Pre-trained Transformer)
Famille de modeles de langage developpes par OpenAI, a l'origine de la revolution de l'IA generative.
GPT (Generative Pre-trained Transformer) est une famille de modeles de langage developpes par OpenAI. Le principe : pre-entrainer un Transformer massif sur du texte internet, puis l'affiner pour des taches specifiques.
Evolution :
- • GPT-1 (2018) : 117M parametres, preuve de concept
- • GPT-2 (2019) : 1.5B parametres, generation de texte coherent
- • GPT-3 (2020) : 175B parametres, capacites emergentes
- • GPT-3.5 (2022) : base de ChatGPT, democratisation
- • GPT-4/GPT-4o (2023-2024) : multimodal, raisonnement avance
- • GPT-4o (2024) : multimodal natif, plus rapide
- • GPT-4.5 (2025) : meilleure factualite, cout reduit
- • GPT-5 (debut 2026) : agents autonomes, raisonnement avance
- • GPT-5.3 Codex (2026) : specialise code
- • GPT-5.4 (mars 2026) : modele le plus capable, contexte 1M tokens
GPT a donne son nom a ChatGPT et a inspire toute l'industrie des LLM. L'approche "scale up" (toujours plus gros) a prouve son efficacite mais pose des questions de cout et d'impact environnemental.