Peut-on faire confiance à une réponse IA ?

Peut-on faire confiance à une réponse IA ?

février 26, 2026

9 000 incidents. Et la catégorie qui monte le plus vite : les contenus générés par l’IA elle-même.

C’est le chiffre posé sur la table par l’OCDE lors de la conférence ETSI AI & Data de février 2026 : près de 9 000 incidents et risques liés à l’IA, documentés entre janvier 2022 et septembre 2025. Pas des hypothèses académiques. Des cas réels. Biais, atteintes à la vie privée, décisions automatisées contestables, contenus synthétiques trompeurs.

Parmi les quatorze catégories identifiées, quatre voient leur part augmenter significativement. En tête : les médias synthétiques. Autrement dit, les contenus fabriqués par l’IA. Deepfakes, textes générés, réponses inventées.

Le paradoxe est brutal : l’outil censé produire de la connaissance est devenu la première source de désinformation industrialisée.

Et pourtant, des dirigeants continuent de brancher un LLM sur leurs documents internes en espérant des réponses « fiables ». Comme si connecter un moteur à du carburant frelaté pouvait produire de la performance.

Le vrai problème n’est pas l’hallucination. C’est l’absence de preuve.

Le mot « hallucination » est devenu le fourre-tout commode pour expliquer les erreurs de l’IA. Mais il masque le vrai sujet.

Un LLM ne « se trompe » pas au sens humain du terme. Il génère la suite de tokens la plus probable. Il n’a pas de notion de vérité ; il a une notion de plausibilité statistique. La nuance est fondamentale.

Le problème n’est pas que l’IA invente. C’est que personne ne peut prouver d’où vient sa réponse.

Pas de source identifiée. Pas de traçabilité. Pas d’audit possible. Quand votre directeur juridique vous demande « sur quoi repose cette analyse ? », le silence du système n’est pas un bug. C’est son architecture.

Scott Cadzo, président du comité TC SAI de l’ETSI (le comité chargé de rendre l’IA sûre, sécurisée et socialement responsable) résume le défi avec une image limpide :

« You can’t do the same kind of testing you do for standard software because it’s intrinsically [non-deterministic]. It changes all the time. It’s like standing in sand. »

Debout sur du sable. Voilà l’état de la confiance IA aujourd’hui pour toute entreprise qui déploie un modèle sans ancrage dans une base de connaissances maîtrisée.

Ce que disent les normes (et que personne ne vulgarise)

Pendant que le marché débat d’éthique IA en termes vagues, les organismes de normalisation construisent des cadres opérationnels concrets. Le problème : ces travaux restent enfermés dans des cercles d’experts.

EN 304 223 : la première norme mondiale d’exigences pour la sécurité IA

L’ETSI a publié fin 2025 la norme EN 304 223. Pas un guide de bonnes pratiques, pas une recommandation : une norme d’exigences. Treize principes. Soixante-douze obligations concrètes couvrant l’intégralité du cycle de vie d’un système IA.

Comme le précise Ultan Mulligan, directeur des services de l’ETSI :

« C’est la première norme globalement applicable, pas seulement européenne. Les standards ISO existants traitent de recommandations. Celui-ci fixe des exigences. C’est pour cela qu’il attire autant l’attention. »

Soixante-douze choses à faire. Sur l’intégralité du cycle de vie. Pour pouvoir affirmer avec un degré raisonnable d’assurance que le système IA que vous mettez sur le marché est sûr, sécurisé et socialement responsable.

La question pour un dirigeant n’est plus « faut-il réguler l’IA ? » Elle est : « combien de ces 72 exigences mon système respecte-t-il aujourd’hui ? »

Le cadre OCDE et la conformité continue

L’OCDE, de son côté, a construit un cadre commun de reporting à partir de 88 critères initiaux, réduit à 29 critères dont 7 obligatoires : type de préjudice, lien entre l’incident et le système IA, description factuelle, preuves à l’appui. Approuvé par 34 pays membres. Publiquement accessible.

L’article 73 de l’EU AI Act rendra bientôt obligatoire le signalement des incidents IA graves. Ceci n’est plus de la prospective.

Et la conformité elle-même change de nature. Markus Lück, président du comité TC MTS de l’ETSI, pose la question qui devrait hanter chaque DSI :

« Un test initial peut ne plus être applicable après un certain temps, car le modèle a tellement changé. Le groupe travaille sur ce qu’il appelle l’évaluation de conformité continue : valider encore et encore si les exigences sont respectées sur toute la durée de vie du produit. »

Un logiciel classique peut être testé, certifié, déployé. Un système IA, non. Il est réentraîné. Il apprend. Il évolue. Le modèle que vous avez validé en janvier n’est plus le même en juin. Tester une fois ne suffit plus. Il faut tracer, versionner, auditer dans le temps. Impossible sans une architecture de connaissance qui documente ce que le système sait, d’où il le sait, et comment cette base évolue.

La fracture : IA aveugle vs IA ancrée

Deux paradigmes s’opposent désormais. Le choix entre les deux n’est pas technique ; il est stratégique.

IA aveugleIA ancrée
SourceWeb public, données non gouvernéesBase de connaissances structurée et maîtrisée
TraçabilitéAucune : réponse sans origine identifiableChaque réponse pointe vers sa source
AuditabilitéImpossible, boîte noireVérifiable et mesurable
ConformitéPonctuelle au mieux, obsolète au pireContinue : versioning et gouvernance dans le temps
Risque juridiqueÉlevé, aucune preuve en cas de litigeMaîtrisé, chaîne de preuve documentée
Valeur stratégiqueCommodité : tout le monde a le même outilAutorité : votre expertise devient l’ancrage

Isabella de Michelis, représentante de l’Alliance européenne des PME numériques, pose le standard lors de la conférence ETSI :

« La logique du système IT doit être réellement véridique. Pas une simple façade. Elle doit être vérifiable, auditable, mesurable. »

Pourquoi le RAG change l’équation

Le RAG (Retrieval-Augmented Generation) n’est pas un gadget technique. C’est le mécanisme qui transforme une IA aveugle en IA ancrée.

Le principe : au lieu de laisser le modèle générer une réponse à partir de son entraînement général (le web public, avec toutes ses approximations), le RAG l’oblige à interroger d’abord une base de connaissances maîtrisée, puis à construire sa réponse à partir des documents récupérés.

La différence est architecturale :

  • Sans RAG : le modèle puise dans sa mémoire statistique. Pas de source. Pas de preuve. Pas de recours.
  • Avec RAG gouverné : chaque réponse est traçable jusqu’au document source. L’expertise qui alimente le système est identifiée, versionnée, souveraine.

Diego Lopez, président du comité TC Data de l’ETSI et chercheur chez Telefónica, le formule clairement lors de la session « Data Deep Dive » :

« Si vous voulez entraîner de l’IA, vous devez être assuré que la donnée est la bonne, qu’elle vient du bon endroit, et qu’elle n’a pas été altérée. »

Et il va plus loin, en traçant un parallèle avec un mécanisme que chaque DSI connaît : l’infrastructure à clés publiques (PKI). De la même façon qu’un certificat numérique permet de faire confiance à un interlocuteur sans le connaître personnellement, le TC Data travaille sur des mécanismes de confiance pour les données ingérées par les systèmes IA. Une « PKI de la donnée » qui garantirait l’origine, l’intégrité et la non-altération de chaque source.

Le RAG n’est pas une fin en soi. C’est un moteur. Et comme tout moteur, sa performance dépend du carburant. Le carburant, c’est l’expertise métier structurée, gouvernée, traçable.

Le RAG sans gouvernance est une dette stratégique

Brancher un RAG sur un dossier SharePoint ne fait pas une architecture de connaissance. Cela fait un moteur alimenté par du chaos organisé.

Un RAG non gouverné, c’est :

  • Des documents contradictoires qui génèrent des réponses incohérentes. L’IA ne sait pas quelle version fait foi.
  • Du savoir tacite absent. Les décisions clés restent dans la tête des experts, invisibles pour le système.
  • Aucune traçabilité dans le temps. Impossible de savoir quelle version du document a alimenté quelle réponse, et quand.
  • Un risque de conformité croissant. À mesure que le cadre réglementaire se durcit (AI Act, Data Act), l’absence de gouvernance devient une vulnérabilité juridique.

Il faut être honnête : le RAG ne résout pas tout. Nous l’avons constaté nous-mêmes en structurant des bases de connaissances pour nos clients. Un RAG branché sur une documentation parfaitement indexée peut encore produire des réponses approximatives si la question de l’utilisateur est mal formulée, ou si le contexte métier nécessite une interprétation que le modèle ne possède pas. Le mécanisme réduit considérablement les hallucinations ; il ne les élimine pas. C’est pourquoi le contrôle humain reste indispensable, y compris dans une architecture bien conçue.

Le TC Data de l’ETSI travaille précisément sur ce sujet : des mécanismes de confiance distribués, ouverts et fiables pour les données. Distribué, car la centralisation des données dans quelques silos crée une fragilité systémique. Ouvert, car l’interopérabilité est la condition de la gouvernance. Fiable, car sans identification de la source, de son intégrité et de son contexte, aucune confiance n’est possible.

Cela rejoint une conviction que nous portons depuis la création du cabinet : la donnée n’est pas le nouvel or. La connaissance gouvernée l’est.

Ce que cela signifie pour un dirigeant

Si vous déployez ou envisagez de déployer de l’IA dans votre entreprise, voici la grille de lecture que les travaux de l’ETSI et de l’OCDE imposent désormais :

1. Exigez la traçabilité, pas la performance.

Un système qui répond vite mais sans source identifiable est un risque, pas un atout. La question n’est plus « l’IA a-t-elle la bonne réponse ? » mais « pouvez-vous prouver d’où vient cette réponse ? »

2. Pensez conformité continue, pas certification ponctuelle.

Votre système IA évolue. Votre base de connaissances aussi. Sans versioning, sans auditabilité dans le temps, votre conformité d’aujourd’hui est l’incident de demain.

3. Structurez avant d’automatiser.

Le RAG est un accélérateur. Mais accélérer dans le brouillard ne mène nulle part. L’architecture de connaissance rend l’expertise explicite, structure les concepts, définit une source de vérité. C’est le prérequis.

4. Traitez votre expertise comme un actif souverain.

Les modèles sont accessibles à tous. Votre savoir métier ne l’est pas. Structuré et gouverné, il devient le seul avantage compétitif que l’IA ne peut ni copier ni remplacer. C’est précisément ce que nous appelons le Cerveau Numérique.

La confiance ne se décrète pas. Elle s’architecture.

Le cadre réglementaire se referme. Les normes existent. Les mécanismes de traçabilité aussi. Ce qui manque encore dans la plupart des entreprises, c’est la décision d’en faire un sujet stratégique plutôt qu’un sujet technique.

Une IA sans sources maîtrisées est juridiquement et stratégiquement dangereuse. Le RAG gouverné, alimenté par une architecture de connaissance structurée et traçable, n’est pas une option technique. C’est la condition de la confiance. Et dans un monde où les moteurs IA sélectionnent des sources plutôt que des pages, cette confiance est aussi un levier de visibilité.

La question qui reste ouverte, et que chaque dirigeant devra trancher pour son propre contexte : à quel moment cette structuration passe-t-elle de « projet intéressant » à « urgence opérationnelle » ? Pour certains secteurs réglementés, la réponse est déjà claire. Pour les autres, l’article 73 de l’AI Act est en train de la rendre inévitable.

Sources primaires : Conférence ETSI AI & Data (9-10 février 2026), données OCDE, EU AI Act

Articles similaires