Actu-IA
Hallucination - definition et explication du terme IA
🧱 Fondamentaux

Hallucination

Erreur d'une IA qui genere du contenu faux mais presente avec assurance comme etant vrai.

Une hallucination en IA est un phenomene ou un modele genere une information fausse, inventee ou incoherente, tout en la presentant avec le meme niveau de confiance qu'une information correcte.

Types d'hallucinations :

  • Factuelles : inventer des faits, des dates, des citations
  • Logiques : raisonnements incoherents presentes comme valides
  • Referentielles : citer des sources inexistantes (faux liens, faux auteurs)

Causes principales :

  • Le modele predit le token le plus probable, pas le plus vrai
  • Manque de donnees sur un sujet specifique
  • Biais dans les donnees d'entrainement

Pour reduire les hallucinations : verifier les sources, utiliser le RAG (Retrieval-Augmented Generation), demander au modele de citer ses sources, et utiliser des prompts qui encouragent la prudence.

Ressources externes

Termes lies