Glossaire de l'IA
Les concepts clés de l'intelligence artificielle expliqués clairement pour les professionnels non-techniciens.
LLM
Large Language ModelModèle de langage de grande taille entraîné sur d'immenses corpus de textes. Les LLMs (GPT-4, Claude, Mistral) sont la base des assistants IA conversationnels.
Prompt
InstructionTexte ou instruction envoyée à un modèle IA pour obtenir une réponse. La qualité du prompt influence directement la qualité du résultat. On parle de "prompt engineering" pour l'art d'écrire des instructions efficaces.
RAG
Retrieval-Augmented GenerationTechnique qui permet à un LLM de consulter une base de données externe (documents, site web) avant de répondre. Utilisé pour ancrer les réponses IA dans des données récentes ou spécifiques à une entreprise.
Fine-tuning
Ajustement finProcessus d'entraînement supplémentaire d'un modèle pré-entraîné sur des données spécifiques à un domaine. Permet d'adapter un LLM généraliste à un métier ou une terminologie particulière.
Token
Unité de traitementUnité de base du traitement de texte par les LLMs. Un token correspond approximativement à ¾ de mot en français. La plupart des modèles facturent à l'usage en tokens (input + output).
Agent IA
Agent autonomeSystème IA capable d'effectuer des actions en séquence de manière autonome : naviguer sur le web, écrire du code, envoyer des e-mails. Les agents peuvent utiliser des "outils" (tools) externes.
RGPD
Règlement Général sur la Protection des DonnéesRéglementation européenne (2018) encadrant la collecte et le traitement des données personnelles. Pour les outils IA, le RGPD implique de vérifier où les données sont hébergées et traitées.
No-code
Sans programmationOutils et plateformes permettant d'automatiser des tâches et de créer des applications sans écrire de code. Make, Zapier et Notion sont des exemples d'outils no-code.
Context window
Fenêtre de contexteQuantité maximale de texte qu'un modèle peut traiter en une seule fois (input + output). Mesurée en tokens. Plus la fenêtre est grande, plus le modèle peut analyser de documents longs.
Hallucination
Erreur de générationPhénomène par lequel un LLM génère des informations fausses présentées avec confiance. Un problème connu de tous les modèles actuels — d'où l'importance de vérifier les outputs critiques.
Un terme manque ?
Suggérer un terme