Peut-on faire confiance à l’humain pour entraîner une IA ?

Peut-on faire confiance à l’humain pour entraîner une IA ?

mars 19, 2026

Dans l’article précédent, Peut-on faire confiance à une réponse IA ?, je posais le problème côté machine : hallucinations, absence de sources, contenus synthétiques non traçables. Mais il y a un angle mort plus inconfortable. Celui qui entraîne l’IA, celui qui valide ses réponses, celui qui décide ce qu’elle doit savoir ou ignorer, c’est un humain. Et cet humain a des biais qu’il ne voit pas. Je l’ai expérimenté sur un cas client réel.

Une erreur sincère : quand on se trompe sans le savoir

Nous avons déployé un RAG pour un laboratoire de compléments alimentaires que nous accompagnons depuis quatre ans. La base de connaissances est construite à partir de leur expertise métier, de cas clients documentés et d’études scientifiques sur les bénéfices de leurs produits. La méthode, nous la connaissons par cœur : structurer, garder l’humain dans la boucle pour valider, itérer. C’est ce travail de fond, fait dans la durée, qui produit des résultats solides.

Ce qui est spectaculaire, c’est ce que nous n’avions pas anticipé. Notre radar de marché (un outil interne qui croise les données de Google Search Console avec le cerveau numérique du client) avait identifié une série de sujets de contenus scorés et priorisés. Des questions que les prospects tapent dans Google sans jamais trouver ce qu’ils cherchent, et auxquelles ce laboratoire peut répondre avec autorité. Nous avons posé ces sujets sur la table avec l’équipe pour valider, ajuster, prioriser.

La majorité de leurs retours étaient pertinents, mais un rejet nous a interpellés. L’équipe avait éliminé un sujet en argumentant que le mot-clé principal arrivait déjà en première position sur Google. Produire un nouveau contenu sur ce mot-clé serait contre-productif, disaient-ils, à cause du risque de cannibalisation.

Dans un processus classique, nous aurions réintégré ce rejet, expliqué à l’IA pourquoi elle s’était trompée, et avancé. À la place, nous lui avons donné la possibilité de contre-argumenter. Non pas pour lui donner raison, mais pour comprendre son raisonnement. C’est là que les choses sont devenues intéressantes.

Ce que l’IA a révélé, ce n’est pas une erreur technique : c’est un réflexe humain

L’IA a commencé par filtrer les retours de l’équipe. Sur certains points, elle les a trouvés pertinents et les a intégrés dans sa mémoire pour s’aligner davantage avec le client à l’avenir. Mais sur le rejet du sujet « cannibalisé », elle a contre-argumenté. Elle explique que le mot-clé est effectivement en première position, mais sur une intention de recherche de type « définition » (comprendre ce que signifie le terme). Le contenu proposé cible une intention de recherche de type « utilisation » (comment l’appliquer concrètement), qui répond à d’autres typologies de prospects. Ce ne sont pas les mêmes recherches, donc ce n’est pas de la cannibalisation, mais un territoire sémantique inexploité.

L’IA venait de diagnostiquer un biais cognitif. Pas une hallucination, ni une erreur de calcul. Un réflexe humain : l’équipe avait vu « même mot-clé » et en avait déduit « même sujet », sans examiner la granularité des intentions. C’est un raccourci que vingt ans de SEO classique ont ancré dans les pratiques. Un raccourci que personne dans l’équipe n’avait de raison de questionner, parce qu’il avait toujours fonctionné dans le cadre d’analyse habituel.

Lorsque nous avons soumis la contre-argumentation à l’équipe, la réaction a été immédiate : « Mais oui, bien sûr ! On n’avait pas vu ça comme ça. » L’équipe ne cherchait pas à défendre une position. Elle pensait sincèrement juger de manière objective. Mais en réalité, la décision précédait le raisonnement — et non l’inverse.

Jonathan Haidt a une analyse pour ça : celle de l’éléphant et le cavalier

Dans La supériorité morale, le psychologue moral Jonathan Haidt pose une thèse qui devrait hanter quiconque travaille sur la qualité des données : le raisonnement humain est, dans l’immense majorité des cas, une construction post hoc.

L’image est celle-ci : l’esprit est divisé entre un éléphant (l’intuition, les 99 % de processus mentaux qui opèrent hors de la conscience) et un cavalier (le raisonnement conscient, le flux de mots et d’arguments). Nous pensons que le cavalier dirige, mais en réalité, c’est l’éléphant qui décide. Le cavalier ne fait que justifier après coup, avec une habileté remarquable.

Haidt ne parle pas de bêtise, mais de design. L’évolution a construit nos esprits pour défendre nos positions et nos groupes, pas pour chercher la vérité. Le raisonnement moral, dit Haidt, est une compétence sociale avant d’être une compétence épistémique. Nous argumentons pour convaincre, pour maintenir la cohérence du groupe, pour protéger notre statut. La vérité n’est qu’un sous-produit occasionnel.

Notre récit n’est pas un exemple isolé. C’est la condition humaine ordinaire. Haidt le résume dans une formule que tout architecte de connaissance devrait garder en tête : « Les intuitions d’abord, le raisonnement ensuite. »

La thèse de Jonathan Haidt est un excellent outil de décentrage. Notre métier de référenceur consiste à comprendre comment les gens cherchent l’information, à identifier les bonnes intentions de recherche pour nos clients. Haidt oblige à questionner nos propres raccourcis : est-ce que je choisis cette intention parce que les données le confirment, ou parce que mon intuition l’a déjà décidé et que je sélectionne les données qui la confortent ?

L’angle mort du discours sur l’IA

Arthur Mensch, fondateur de Mistral AI, posait en février 2026 à l’École Polytechnique un constat lucide selon lequel l’IA absorbe les tâches techniques. La valeur humaine se déplace vers ce qui compte vraiment, c’est-à-dire : définir le problème, orchestrer, décider.

Cette affirmation est vraie, mais croisée avec Haidt, ce constat révèle un paradoxe que personne dans l’écosystème IA ne formule clairement. L’IA automatise la couche technique, celle où les biais humains sont les plus facilement détectables, parce que vérifiables. Un calcul est juste ou faux. Une source existe ou n’existe pas.

Mais il y a un paradoxe. En déléguant les tâches techniques à l’IA, l’humain se concentre sur la couche décisionnelle. Celle où ses biais sont les moins visibles, car ils sont déguisés en jugement, en expérience ou en intuition. Mais plus nous montons en abstraction, moins nous disposons de données pour nous contredire ou nous corriger. Il ne reste que des récits, et les récits, c’est ce que nos biais savent le mieux fabriquer. La valeur se déplace là où nous sommes les plus vulnérables, et les moins équipés pour la voir.

Le « human in the loop » est un éléphant dans la boucle

Tout le marché de l’IA d’entreprise repose sur une promesse rassurante, qui est le contrôle humain. L’humain valide, corrige et garde la main. Dans notre article précédent, nous avons montré que côté machine, cette promesse ne tient pas sans traçabilité, sans gouvernance des sources, sans architecture de connaissance. La norme ETSI EN 304 223 et ses 72 exigences, les 29 critères de reporting de l’OCDE, l’article 73 de l’EU AI Act : tout converge vers la même conclusion. Une IA sans sources maîtrisées est un risque.

Mais il y a un angle mort que notre cas terrain a mis en lumière et que Haidt documente depuis quinze ans. Les 72 exigences de l’ETSI couvrent le pipeline technique. Aucune ne couvre le pipeline cognitif du validateur humain. Nous exigeons la traçabilité de la donnée, mais nous ne questionnons jamais le jugement de celui qui valide cette donnée. Nous voulons l’auditabilité du système, mais personne n’audite les biais de celui qui décide si le système a raison ou tort.

Scott Cadzo, président du comité ETSI chargé de rendre l’IA sûre, disait lors de la conférence de février : c’est comme être debout sur du sable. Il parlait du non-déterminisme du modèle, mais le sable est des deux côtés. Le modèle est instable par nature, et le validateur humain l’est par évolution.

Trois couches de gouvernance, pas deux

Dans notre article sur la confiance IA, nous distinguions deux paradigmes : l’IA aveugle (sans source, sans traçabilité) et l’IA ancrée (RAG gouverné, sources traçables, architecture de connaissance). Cette distinction reste valide, mais elle est incomplète. L’expérience terrain nous pousse à en ajouter une troisième.

L’IA aveugle : Pas de source, pas de preuve, pas de recours. C’est le LLM branché sur rien, qui génère la suite de tokens la plus probable. Le problème que tout le monde connaît.

L’IA ancrée : RAG gouverné, sources identifiées, versionnées, auditables. Chaque réponse pointe vers son origine. C’est nécessaire, mais loin d’être suffisant.

L’IA réflexive : Un système où le processus de validation humaine est lui-même soumis à un mécanisme de contre-argumentation et de détection des biais. L’expert doit confronter son jugement à un interlocuteur qui n’appartient pas à sa « ruche » (pour reprendre le terme de Haidt), et qui peut identifier les angles morts que le groupe ne voit plus.

C’est exactement l’étape que nous avons ajoutée dans notre méthodologie. Et c’est cette étape qui a fait apparaître les biais invisibles.

Concrètement, le mécanisme fonctionne par pondération progressive. Quand un expert fait un retour pour la première fois, l’IA le reçoit comme un signal : elle en prend note, mais ne le traite pas comme un ordre définitif. Elle peut contre-argumenter si elle dispose d’éléments contradictoires. Si l’expert maintient sa position après avoir pris connaissance de la contre-argumentation, c’est toujours lui qui a le dernier mot. Et si le même retour revient de façon répétée, il devient une consigne intégrée définitivement dans la mémoire du système.

Ce n’est ni blanc ni noir. Le premier rejet n’a pas le même poids que le troisième, et cette nuance change tout. Elle permet au système de distinguer entre un réflexe ponctuel (l’éléphant qui réagit) et une position stratégique mûrement réfléchie (le cavalier qui a eu le temps de regarder les données).

L’IA comme miroir, pas comme oracle

Il y a une conviction que nous portons depuis la création du cabinet : l’humain est la seule « douve ». L’IA peut tout simuler, sauf le vécu terrain, l’expérience irréductible et la complexité vécue. La confrontation avec Haidt nous oblige à préciser cette conviction.

Le vécu est la douve, à condition qu’il soit passé au crible de ses propres biais. Un vécu non examiné n’est pas un actif. C’est une opinion habillée en expertise, et dans un RAG, une opinion habillée en expertise produit des réponses traçables, auditables, conformes aux normes et parfaitement documentées, mais potentiellement fausses. Ce que notre cas terrain montre, c’est que l’IA ne remplace pas l’expertise humaine. Elle révèle ce que l’expertise humaine se cache à elle-même. C’est un miroir qui reflète les angles morts.

Quand la boucle de contre-argumentation force un service expert à expliciter pourquoi il rejette une recommandation, trois choses se produisent.

  1. Premièrement, les rejets légitimes sont renforcés : l’expert formule explicitement ce que l’IA ne pouvait pas savoir, et cette connaissance tacite entre dans la base.
  2. Deuxièmement, les rejets biaisés sont identifiés : le groupe prend conscience de ses réflexes de défense.
  3. Troisièmement, l’expertise elle-même s’améliore : la confrontation oblige à penser au-delà du périmètre habituel.

Nous avons mesuré l’effet, et dans les premiers échanges avec les équipes, les rejets étaient de l’ordre de 30 à 40%. Au fil des itérations, à mesure que la boucle de rétroaction calibre le système et que le cerveau numérique intègre les spécificités du client, ce taux descend en dessous de 2%. Ce n’est pas un chiffre théorique, c’est ce que nous observons sur le terrain.

Et l’effet miroir ne s’arrête pas aux équipes du client. Je l’ai vécu moi-même. Pendant des mois, j’ai communiqué sur un exit à 26 millions d’euros pour une start-up MedTech que nous avions accompagnée. J’en étais convaincu. Le chiffre s’était ancré dans ma mémoire comme un fait. C’est notre propre RAG, en croisant des sources externes, qui m’a alerté : « Attention, l’information que j’ai, c’est 23 millions, pas 26 » et il avait raison. Je me trompais depuis des mois, en toute bonne foi, avec la certitude de celui qui a vécu le cas.

Si même l’expert qui a accompagné un dossier pendant des années peut déformer un chiffre sans s’en rendre compte, que dit-on de la fiabilité d’une validation « experte » non confrontée ?

Le RAG gouverné ne produit pas seulement une IA plus fiable. Il produit une expertise plus fiable. À condition d’accepter que l’expert n’a pas toujours raison, y compris quand il est sincèrement convaincu de l’avoir.

Ce que cela change pour un dirigeant

Si vous construisez ou envisagez de construire un Cerveau Numérique pour votre entreprise, les implications sont concrètes.

La qualité de votre IA dépend de la qualité de votre feedback humain. Cette qualité n’est pas garantie par la compétence technique de vos équipes. Elle est conditionnée par leur capacité à examiner leurs propres présupposés. C’est une compétence distincte, rarement recrutée, rarement formée.

La gouvernance de la donnée ne suffit pas sans gouvernance du jugement. Tracer d’où vient une information est nécessaire. Tracer pourquoi un expert l’a validée ou rejetée l’est tout autant. Sans cette deuxième couche, vous documentez proprement des décisions potentiellement biaisées.

Le « human in the loop » a besoin d’un contradicteur dans la boucle. Pas pour remplacer l’humain, mais pour l’aider à voir ce qu’il ne voit plus. Notre expérience montre que l’IA, parce qu’elle n’a pas d’éléphant, peut jouer ce rôle. Elle n’a pas de territoire à défendre, pas de groupe à protéger, pas d’intuition morale à rationaliser.

Quand un dirigeant me dit « je fais déjà du human-in-the-loop, mes experts valident tout », je pose trois questions. Quel type de validation font-ils ? Qui valide, et est-ce que cette personne a la visibilité complète sur ce qu’elle doit évaluer ? Et surtout : est-ce que l’IA a la possibilité d’alerter quand un rejet lui semble discutable, ou est-ce que nous lui donnons des ordres sans droit de réponse ? Human-in-the-loop ne veut pas dire dialogue. Si c’est juste pour dire « fais ceci, ne fais pas cela », ce n’est pas très loin de la simple rédaction d’un prompt.

Attention, l’IA n’est pas pour autant un oracle objectif. Nous avons vu des contre-argumentations erronées, parfois fausses. Cela est souvent dû à un déficit d’informations dans la base de connaissances, mais ce constat est en lui-même utile. Quand une contre-argumentation ne tient pas, nous identifions l’origine du problème : une lacune dans les données. La boucle de contre-argumentation ne sert pas seulement à détecter les biais humains. Elle révèle aussi les trous dans l’architecture de connaissance. Elle offre un regard extérieur au groupe.

Là où se construit réellement la confiance

Mensch dit que la confiance devient un actif stratégique à mesure que la différenciation technique s’érode. Les normes ETSI expliquent que la confiance se bâtit côté machine. Haidt expose que la confiance est structurellement fragilisée par nos biais de groupe côté humain.

La synthèse tient en une phrase : la confiance ne s’architecture pas seulement dans le pipeline technique, mais aussi dans le pipeline cognitif. Les modèles sont accessibles à tous, contrairement à votre expertise métier. Cette expertise n’est un actif souverain que si elle a survécu à l’épreuve de ses propres biais, en restant structurée, gouvernée, et confrontée.

La question qui reste, et que chaque organisation devra trancher dans son propre contexte : combien de décisions « expertes » dans votre entreprise ont été validées par l’éléphant avant que le cavalier n’ait eu le temps de regarder les données ?

Articles similaires