Olivier Brun | IA, LLM & Cyber Architecture

Concevoir une IA utile, sécurisée et défendable en entreprise

L’enjeu n’est pas simplement de choisir entre ChatGPT, Claude, Mistral ou Gemini. L’enjeu réel est de construire une architecture IA robuste, gouvernable et compatible avec les exigences de sécurité, de conformité, de souveraineté et d’exploitation.

LLM RAG sécurisé IAM Zero Trust Prompt Security Observabilité
Principe directeur : un service IA doit être traité comme une application sensible. Il faut penser dès le départ : données, accès, journalisation, validation, résilience et responsabilité.
Valeur Créer un bénéfice métier sans ouvrir un nouveau risque majeur
5 couches Identité, données, orchestration, sécurité, exploitation
3 décisions Où héberger, quoi exposer, quoi automatiser
Zéro tolérance Pas de mise en production sérieuse sans garde-fous

Grandes familles de LLM

Les grands acteurs visibles aujourd’hui côté assistants et modèles incluent ChatGPT chez OpenAI, Claude chez Anthropic, Gemini chez Google et Mistral AI, chacun avec un positionnement produit et une logique d’intégration différents.

ChatGPT / OpenAI

Fort pour assistant généraliste, productivité, automatisation, développement et intégration API.

Assistant API Code Productivité

Claude / Anthropic

Souvent pertinent pour l’analyse, le texte long, la rédaction structurée et les usages professionnels exigeants.

Analyse Texte long Documentation Entreprise

Gemini / Google

Logique si l’environnement cible est déjà très lié à Google, aux API Google ou à Google Cloud.

Google Multimodal Écosystème Cloud

Mistral AI

Intéressant pour les organisations sensibles à la souveraineté, au contrôle et aux déploiements plus maîtrisés.

Europe Souveraineté Déploiement Flexibilité

Architecture cible d’un service IA sécurisé

Une architecture IA saine sépare les responsabilités. L’erreur classique est de tout mélanger : front, logique de prompt, données, actions et logs. C’est une faute d’architecture, pas un détail d’implémentation.

Chaîne de traitement recommandée

Séparer le canal utilisateur, l’orchestration, le moteur documentaire, les contrôles de sécurité et l’exploitation permet de mieux maîtriser le risque.

1

Canal utilisateur

Portail web, copilote métier, API ou interface interne avec SSO, MFA et segmentation par profil.

2

Orchestration

Gestion des prompts, policy enforcement, routage vers un ou plusieurs modèles, guardrails et limitation des capacités.

3

Moteur documentaire

Indexation, vectorisation, filtrage contextuel, contrôle des sources et respect des droits d’accès.

4

Couche sécurité

DLP, secret management, détection d’injections, journalisation, supervision et contrôle des flux.

5

Gouvernance & run

Mesure coût, latence, qualité, ownership, conformité, revue de risques et trajectoire produit.

RAG sécurisé : la zone la plus sous-estimée

Beaucoup branchent un LLM à une base documentaire sans comprendre que le vrai risque est là. Un RAG mal pensé devient un accélérateur de fuite, de confusion documentaire et de réponses non fiables.

Chaîne RAG recommandée

1. Sélection des sources Documents validés, propriétaires identifiés, périmètre limité, sensibilité connue.
2. Préparation Nettoyage, découpage, enrichissement de métadonnées, classification et règles de rétention.
3. Indexation contrôlée Index séparés par domaine, niveau de sensibilité, population autorisée ou contexte métier.
4. Récupération filtrée Recherche documentaire alignée avec les droits de l’utilisateur et les politiques d’accès.
5. Génération & traçabilité Réponse contextualisée, citations internes si nécessaire, logging utile et supervision.
Erreur fréquente

Tout indexer sans gouvernance

Indexer tout un Drive, SharePoint ou un wiki interne “pour aller vite” est un mauvais réflexe.

  • Périmètre documentaire trop large
  • Documents obsolètes et contradictoires
  • Absence d’owner documentaire
  • Sensibilité non qualifiée
Approche saine

Indexer par domaine et responsabilité

Le RAG doit suivre une logique de sécurité et de gouvernance, pas une logique de facilité technique.

  • Corpus séparés par métier ou usage
  • Documents approuvés et datés
  • Accès alignés sur IAM ou ABAC
  • Réévaluation régulière de la fraîcheur
Confiance

Réponse utile n’est pas réponse fiable

Un LLM peut produire une réponse convaincante même avec un contexte documentaire médiocre.

  • Prévoir score de confiance
  • Limiter certains cas d’usage à l’assistance, pas à la décision
  • Exiger validation humaine sur les actions sensibles
Sécurité

Le prompt n’est pas ton seul problème

Le contexte injecté dans le prompt est souvent plus dangereux que le prompt utilisateur lui-même.

  • Protection contre exfiltration contextuelle
  • Filtrage des passages sensibles
  • Contrôle des sources autorisées
  • Logs adaptés sans sur-exposer le contenu

Risques et contre-mesures

Une bonne architecture ne nie pas le risque. Elle l’identifie, le limite et le rend visible.

Fuite de données via prompts ou contexte

Données sensibles, secrets, documents internes ou éléments réglementés exposés au modèle ou aux logs.

Contre-mesures

Classification, DLP, masquage, règles d’usage, segmentation documentaire, gestion des logs et revue des flux sortants.

Prompt injection / détournement

Instructions malveillantes qui cherchent à contourner le cadre, révéler des données ou déclencher des actions non prévues.

Contre-mesures

Guardrails, séparation des instructions système, contrôle des outils, validation humaine pour les opérations sensibles.

Hallucination à impact métier

Réponse plausible mais fausse, utilisée comme base de décision, d’analyse ou de communication.

Contre-mesures

RAG de qualité, sources fiables, score de confiance, citation, périmètre d’usage clair et contrôle humain ciblé.

Excès d’autonomie agentique

Le système ne se limite plus à conseiller et commence à agir avec des permissions mal bornées.

Contre-mesures

Principe du moindre privilège, étapes d’approbation, journalisation des actions, isolation par usage et rollback rapide.

Stack technique à prévoir

Le LLM n’est qu’un composant. Une stack IA sérieuse demande un socle complet.

Front & accès

  • Portail web ou copilote métier
  • SSO / fédération d’identité
  • MFA si nécessaire
  • Segmentation par profil d’utilisateur

Orchestration

  • Gestion centralisée des prompts
  • Routage multi-modèles
  • Guardrails
  • Gestion du contexte et des outils

Données & RAG

  • Sources documentaires gouvernées
  • Index / vector store
  • Métadonnées de sécurité
  • Contrôle d’accès sur corpus

Sécurité & run

  • Secret management / KMS
  • DLP / classification
  • Logs / métriques / alerting
  • Audit, coût, supervision

Cas d’usage pertinents en entreprise

Un bon cas d’usage IA n’est pas juste impressionnant. Il doit être utile, cadré et mesurable.

Assistant documentaire interne

Recherche intelligente sur procédures, standards, architecture, support ou documentation projet.

  • Très bon candidat RAG
  • Gain de temps réel
  • Nécessite gouvernance documentaire forte

Copilote architecture & cloud

Aide à la rédaction, aux patterns d’architecture, à l’analyse d’écarts et à la standardisation.

  • Utile en AMOA / archi / ops
  • Risque modéré si usage assisté
  • Très bon levier de productivité

Support cybersécurité

Aide à la synthèse d’alertes, à la lecture de politiques, à la préparation d’analyses ou de rapports.

  • Intéressant pour analystes et architectes
  • Exige contrôle des sources et des logs
  • Validation humaine indispensable sur les décisions sensibles

Mon angle d’intervention

J’interviens sur la conception et la sécurisation d’architectures IA en environnement cloud : cadrage de cas d’usage, architecture LLM, gouvernance IAM, design RAG, segmentation des accès, protection des données, journalisation, observabilité et standards d’industrialisation.

L’objectif n’est pas de déployer un chatbot de plus. L’objectif est de bâtir un service IA exploitable, gouvernable, mesurable et soutenable dans un contexte d’entreprise exigeant.