Référence

Glossaire de l'IA

Les concepts clés de l'intelligence artificielle expliqués clairement pour les professionnels non-techniciens.

LLM

Large Language Model

Modèle de langage de grande taille entraîné sur d'immenses corpus de textes. Les LLMs (GPT-4, Claude, Mistral) sont la base des assistants IA conversationnels.

Prompt

Instruction

Texte ou instruction envoyée à un modèle IA pour obtenir une réponse. La qualité du prompt influence directement la qualité du résultat. On parle de "prompt engineering" pour l'art d'écrire des instructions efficaces.

RAG

Retrieval-Augmented Generation

Technique qui permet à un LLM de consulter une base de données externe (documents, site web) avant de répondre. Utilisé pour ancrer les réponses IA dans des données récentes ou spécifiques à une entreprise.

Fine-tuning

Ajustement fin

Processus d'entraînement supplémentaire d'un modèle pré-entraîné sur des données spécifiques à un domaine. Permet d'adapter un LLM généraliste à un métier ou une terminologie particulière.

Token

Unité de traitement

Unité de base du traitement de texte par les LLMs. Un token correspond approximativement à ¾ de mot en français. La plupart des modèles facturent à l'usage en tokens (input + output).

Agent IA

Agent autonome

Système IA capable d'effectuer des actions en séquence de manière autonome : naviguer sur le web, écrire du code, envoyer des e-mails. Les agents peuvent utiliser des "outils" (tools) externes.

RGPD

Règlement Général sur la Protection des Données

Réglementation européenne (2018) encadrant la collecte et le traitement des données personnelles. Pour les outils IA, le RGPD implique de vérifier où les données sont hébergées et traitées.

No-code

Sans programmation

Outils et plateformes permettant d'automatiser des tâches et de créer des applications sans écrire de code. Make, Zapier et Notion sont des exemples d'outils no-code.

Context window

Fenêtre de contexte

Quantité maximale de texte qu'un modèle peut traiter en une seule fois (input + output). Mesurée en tokens. Plus la fenêtre est grande, plus le modèle peut analyser de documents longs.

Hallucination

Erreur de génération

Phénomène par lequel un LLM génère des informations fausses présentées avec confiance. Un problème connu de tous les modèles actuels — d'où l'importance de vérifier les outputs critiques.

Un terme manque ?

Suggérer un terme