🔍 Beam Search
Méthode de décodage qui conserve plusieurs séquences candidates (beam) à chaque étape pour trouver la meilleure réponse, plutôt que de prendre le token le plus probable un par un.
📌 Exemple : Beam size = 5 signifie qu'on garde les 5 meilleures séquences possibles à chaque étape.
🔗 Chaîne de pensée (Chain-of-Thought)
Technique de prompting qui force le modèle à raisonner étape par étape avant de donner la réponse finale. Améliore les performances sur les problèmes de raisonnement.
📌 Exemple : "Pensons étape par étape. D'abord, calculons X. Ensuite, appliquons Y. Donc la réponse est Z."
📏 Fenêtre de contexte (Context Window)
Nombre maximal de tokens (mots ou fragments) qu'un modèle LLM peut traiter en une seule fois. Au-delà, le modèle "oublie" le début de la conversation.
📌 Exemple : GPT-4 Turbo a une fenêtre de 128k tokens (~300 pages). Gemini 1.5 Pro peut atteindre 1 million de tokens (un livre entier).
📝 Few-shot learning
Capacité du modèle à apprendre une nouvelle tâche à partir de quelques exemples donnés dans le prompt (généralement 1 à 5 exemples).
📌 Exemple : "Exemple 1 : 'je suis content' → positif. Exemple 2 : 'je suis triste' → négatif. Maintenant, analyse : 'je suis ravi' → ?"
🌀 Hallucination
Phénomène où un LLM génère une réponse incorrecte, incohérente ou inventée, mais présentée avec une apparence de vérité et de confiance.
📌 Exemple : ChatGPT qui invente une loi inexistante ou cite un article de recherche qui n'a jamais existé.
🎨 IA Générative
Catégorie d'IA capable de créer du nouveau contenu (texte, image, code, audio, vidéo) à partir d'apprentissages sur des données existantes.
📌 Exemple : ChatGPT (texte), Midjourney (image), Suno (musique), Runway (vidéo).
🤖 LLM (Large Language Model)
Modèle de langage de très grande taille (des milliards à des centaines de milliards de paramètres) entraîné sur des quantités massives de texte pour comprendre et générer le langage naturel.
📌 Exemple : GPT-4 (OpenAI), Claude 3 (Anthropic), Gemini (Google), Mistral Large, Llama 3 (Meta).
📊 Logit
Score brut (non normalisé) que le modèle attribue à chaque token possible avant transformation en probabilité. Les logits peuvent être positifs ou négatifs.
📌 Exemple : Logits = [10.5, 3.2, -1.0] pour trois tokens possibles. Le token avec le logit le plus élevé a la plus haute probabilité après softmax.
📝 Prompt
Instruction, question ou entrée donnée à un modèle LLM pour obtenir une réponse. La qualité de la réponse dépend fortement de la qualité du prompt.
📌 Exemple : "Résume ce texte en 3 phrases" ou "Agis comme un expert AWS, explique-moi S3".
🔧 Prompt Engineering
Discipline qui consiste à concevoir et optimiser les prompts pour améliorer la qualité, la précision et la pertinence des réponses d'un LLM.
📌 Exemple : Utiliser le "chain-of-thought" pour améliorer le raisonnement mathématique du modèle.
🎲 Softmax
Fonction mathématique qui transforme des logits (scores bruts) en probabilités (somme = 1). Permet au modèle de choisir un token aléatoirement selon sa probabilité.
📌 Exemple : Logits [2.0, 1.0, 0.1] → probabilités [0.65, 0.24, 0.11] après softmax.
⚙️ Système prompt (System Prompt)
Instructions fixes données au modèle en début de conversation pour définir son comportement, son rôle et ses limites. Invisible pour l'utilisateur final.
📌 Exemple : "Tu es un expert en architecture cloud certifié AWS, Azure et GCP. Réponds de manière technique et précise."
🔣 Token
Unité de base de traitement pour un LLM. Un token peut être un mot, une partie de mot, un signe de ponctuation ou un espace. Les modèles comptent en tokens, pas en mots.
📌 Exemple : "Bonjour le monde !" → ["Bon", "jour", " le", " monde", " !"] (5 tokens).
🎲 Top-k / Top-p (Nucleus Sampling)
Techniques pour contrôler la créativité/randomité des réponses. Top-k ne garde que les k meilleurs tokens. Top-p ne garde que les tokens dont la probabilité cumulée atteint le seuil p.
📌 Exemple : Top-p = 0.9 signifie qu'on ne garde que les tokens qui représentent 90% de la masse de probabilité.
🎯 Zero-shot learning
Capacité du modèle à répondre à une tâche sans aucun exemple préalable dans le prompt. Le modèle utilise uniquement ses connaissances internes.
📌 Exemple : "Traduis 'bonjour' en allemand" → sans exemple, le modèle doit connaître la réponse.