Le 23 septembre 2025, sur la scène emblématique du Bang à Big, Jacques Pommeraud, président‑directeur général du groupe Inetum, a pris la parole autour d’un thème aussi simple en apparence que vertigineux : la « Vérité » appliquée à l’intelligence artificielle.
Dans un contexte où les modèles génératifs se déploient à grande vitesse dans les entreprises, son intervention a offert un repère clair : l’IA ne peut créer de valeur durable que si la question de la vérité est placée au centre— vérité des données, vérité des usages, vérité dans la communication envers les utilisateurs.
Ce contenu revient sur les grands enseignements de cette intervention et les traduit en recommandations concrètes pour les organisations: comment réduire les biais, limiter les hallucinations, prévenir les usages malveillants, tout en installant une gouvernance robuste, conforme et génératrice de confiance.
1. Vérité et IA : pourquoi ce thème est décisif pour les organisations
L’IA, en particulier l’IA générative, produit des textes, des images, des décisions ou des recommandations avec une aisance impressionnante. Mais cette puissance masque une réalité fondamentale : un modèle ne « sait » rien au sens humain du terme; il calcule des probabilités à partir de données passées.
Lorsque Jacques Pommeraud choisit de parler de « Vérité » plutôt que simplement de « performance », il met le doigt sur un enjeu stratégique pour les dirigeants :
- Fiabilité des décisions: une IA biaisée ou approximative peut entraîner de mauvaises décisions de recrutement, de crédit, de tarification, de diagnostic, etc.
- Crédibilité de la marque: une entreprise qui diffuse, via l’IA, des contenus erronés ou trompeurs compromet sa réputation et la confiance de ses clients.
- Conformité réglementaire: avec l’essor de nouvelles réglementations sur l’IA, la capacité à démontrer la robustesse et la transparence de ses systèmes devient une condition d’accès au marché.
Autrement dit, la vérité n’est pas un luxe éthique: c’est un avantage concurrentiel et un pilier de la performance durable.
2. Trois grands risques mis en lumière : biais, hallucinations et usages malveillants
Au cœur de son intervention, Jacques Pommeraud a rappelé trois risques majeurs liés aux systèmes d’IA actuels. Les ignorer, c’est prendre le risque de construire sur du sable.
2.1. Les biais algorithmiques : quand l’IA reproduit et amplifie nos angles morts
Un système d’IA apprend à partir de données historiques. Si ces données sont biaisées, l’IA va mécaniquement reproduire — voire amplifier — ces biais. Cela peut se manifester notamment par :
- Des discriminations dans le recrutement, l’octroi de crédit, la tarification ou la relation client.
- Une sous‑représentation de certains profils, langues, territoires ou points de vue.
- Des recommandations partielles qui ignorent systématiquement certains segments de marché ou certaines typologies de clients.
Pour une entreprise, l’impact est double : risque légal (discriminations, non‑conformité) et risque business (opportunités manquées, tensions avec les parties prenantes).
2.2. Les hallucinations de modèles : quand l’IA « invente » en toute confiance
Les modèles génératifs actuels peuvent produire des réponses qui ont l’apparence de la vérité : ton assuré, structure logique, détails précis… tout en étant totalement faux. On parle alors d’hallucinations.
Conséquences possibles pour une organisation :
- Documents internes erronés (notes de synthèse, comptes rendus, analyses) adoptés sans vérification humaine.
- Contenus externes inexacts diffusés auprès de clients, partenaires ou médias.
- Décisions opérationnelles fragilisées si l’IA est utilisée comme une source d’information « infaillible ».
C’est l’une des raisons pour lesquelles Jacques Pommeraud appelle à réhabiliter le « je ne sais pas »: une IA qui peut indiquer ses limites, et des collaborateurs autorisés à douter, constituent une protection précieuse contre ces dérives.
2.3. Les usages malveillants : quand la technologie est détournée
Enfin, l’IA peut être utilisée pour des objectifs explicitement malveillants :
- Création de faux contenus ultra crédibles (deepfakes, faux articles, faux emails) pour manipuler l’opinion ou tromper des collaborateurs.
- Industrialisation de campagnes de phishing et de fraude plus ciblées et plus difficiles à détecter.
- Automatisation de attaques sur les systèmes en exploitant des vulnérabilités à grande échelle.
Pour les organisations, cela signifie une chose : on ne peut plus penser la cybersécurité sans penser l’IA, ni déployer de l’IA sans intégrer ses risques de détournement.
3. Adopter une posture critique et responsable : réhabiliter le « je ne sais pas »
Face à ces risques, Jacques Pommeraud ne prône ni le rejet de l’IA, ni la fuite en avant technophile. Il appelle au contraire à une posture lucide, critique et responsable, à la fois humaine et organisationnelle.
3.1. Réhabiliter le « je ne sais pas » dans les équipes
Dans beaucoup d’organisations, reconnaître que l’on ne sait pas est encore perçu comme un aveu de faiblesse. Or, avec l’IA :
- Un collaborateur qui ose dire « je ne suis pas sûr, je vais vérifier » est un rempart contre les décisions erronées.
- Un expert métier qui dit « le modèle peut se tromper, je garde la main » joue pleinement son rôle de garant.
- Un manager qui assume « nous testons, nous apprenons » crée un cadre où l’on peut expérimenter sans camoufler les limites.
Réhabiliter le « je ne sais pas », c’est donc :
- Restaurer l’esprit critique face aux réponses automatiques.
- Encourager la vérification croisée des informations générées par l’IA.
- Redonner de la valeur au jugement humain et à l’expertise métier.
3.2. S’appuyer sur des valeurs explicites pour guider les choix IA
Une IA n’a pas de valeurs. Elle reflète celles qu’on lui impose, volontairement ou non, à travers ses données, ses objectifs et son cadre d’usage. C’est pourquoi Jacques Pommeraud insiste sur la nécessité de revenir aux fondamentaux : quelles valeurs voulons‑nous incarner avec nos systèmes d’IA ?
Pour une entreprise, cela peut signifier :
- Refuser certains cas d’usage, même rentables, parce qu’ils sont contraires à sa vision de l’éthique.
- Privilégier la transparence (dire quand un contenu est généré par IA, expliquer les limites, documenter les données).
- Donner la priorité à la non‑discrimination et à l’inclusion dans la conception des modèles et des interfaces.
La mise à plat de ces valeurs et leur traduction en règles opérationnelles est l’un des leviers les plus puissants pour aligner IA, vérité et performance.
4. Vers une IA de confiance : les grands piliers proposés
L’originalité de l’intervention de Jacques Pommeraud est de ne pas s’arrêter au constat : il plaide pour une transformation concrète de la manière dont les entreprises conçoivent, déploient et pilotent leurs systèmes d’IA.
On peut résumer cette approche en cinq grands piliers: gouvernance, conformité, formation, audits de modèles et transparence des données.
4.1. Une gouvernance claire de l’IA
La gouvernance, c’est l’art de répondre à des questions simples, mais souvent laissées sans réponse :
- Qui est responsable de quoi ?
- Qui décide qu’un modèle peut être mis en production ?
- Qui arbitre en cas de conflit entre performance et risque ?
Une gouvernance efficace de l’IA inclut par exemple :
- La désignation de rôles clairs (sponsor exécutif, responsables IA, référents éthiques, métiers pilotes).
- Un processus de validation des cas d’usage, du prototype à l’industrialisation.
- Des comités réguliers pour suivre les impacts, ajuster les priorités et arbitrer les risques.
L’objectif : faire de l’IA un sujet de pilotage stratégique, et non seulement un projet technique.
4.2. Une conformité intégrée dès la conception
Les normes et cadres réglementaires sur l’IA se multiplient. Plutôt que de les subir, Jacques Pommeraud invite à les intégrer comme des garde‑fous positifs, dès le design des solutions.
Concrètement, cela peut passer par :
- L’intégration des équipes juridiques, conformité et risques dès les premières phases de conception des projets IA.
- La documentation systématique des données sources, des choix de modèles et des critères d’évaluation.
- La mise en place de procédures d’escalade en cas de dérive observée (biais, plaintes utilisateurs, non‑performance, etc.).
Résultat : une IA qui n’est pas seulement performante, mais démontrablement fiable et maîtrisée aux yeux des régulateurs comme des clients.
4.3. La formation des équipes : passer de l’enthousiasme à la maîtrise
La démocratisation des outils IA rend l’accès extrêmement simple… mais pas forcément maîtrisé. Sans formation adaptée, les équipes :
- Surestiment la fiabilité des réponses de l’IA.
- Ignorent les risques de fuite de données sensibles.
- Utilisent des modèles non validés pour des tâches critiques.
Dans sa prise de parole, Jacques Pommeraud insiste sur l’importance de former largement, et pas uniquement les data scientists. Cela inclut :
- Les équipes métiers, qui doivent comprendre comment dialoguer avec l’IA, vérifier ses réponses et garder la main sur les décisions.
- Les managers, qui doivent piloter la transformation des pratiques et ajuster les indicateurs de performance.
- Les fonctions support (RH, juridique, communication), qui doivent anticiper les impacts humains, sociaux et réputationnels de l’IA.
Une culture commune de l’IA est l’un des atouts majeurs pour réduire les risques et maximiser les bénéfices.
4.4. Auditer régulièrement les modèles
Un modèle d’IA n’est pas figé : son environnement, ses données d’entrée et les usages qui en sont faits évoluent sans cesse. C’est pourquoi Jacques Pommeraud recommande une approche d’audit continu plutôt qu’un simple contrôle au lancement.
Un audit de modèle peut couvrir :
- La qualité des données (fraîcheur, représentativité, intégrité).
- Les performances sur différentes populations ou cas d’usage.
- Les biais détectés et les mesures de correction mises en place.
- La traçabilité des décisions et des versions de modèles.
Cette logique d’audit permet de corriger rapidement les dérives et de maintenir un niveau de vérité acceptable pour les utilisateurs comme pour les régulateurs.
4.5. Transparence des données et des usages : la clé pour restaurer la confiance
Enfin, la transparence est un fil rouge fort de l’intervention de Jacques Pommeraud. Sans transparence, pas de confiance durable.
Pour une entreprise, cela signifie par exemple :
- Indiquer clairement quand un contenu ou une réponse est généré par IA.
- Expliquer, dans un langage accessible, sur quels types de données s’appuie un système.
- Donner la possibilité aux utilisateurs de signaler une erreur ou une dérive, et de demander des explications.
Cette transparence, loin d’affaiblir l’image de l’entreprise, renforce au contraire sa crédibilité : elle montre qu’elle assume les limites de la technologie tout en travaillant activement à les réduire.
5. IA et vérité : ce que les dirigeants peuvent mettre en place dès maintenant
Comment transformer ces principes en plan d’action concret ? Voici une synthèse opérationnelle pour les organisations qui souhaitent s’inspirer de la vision portée par Jacques Pommeraud.
5.1. Un plan d’action en 7 étapes
- Cartographier les usages actuels et envisagés de l’IA dans l’entreprise, en identifiant les risques de vérité (biais, hallucinations, erreurs critiques).
- Clarifier les valeurs et principes qui guideront les projets IA (vérité, non‑discrimination, transparence, responsabilité humaine).
- Mettre en place une gouvernance dédiée avec rôles, comités et processus de validation des cas d’usage.
- Construire un programme de formation pour les métiers, les managers et les fonctions support, en insistant sur l’esprit critique et le fameux « je ne sais pas ».
- Définir une politique de données claire: quelles sources, quelles règles de qualité, quelles limites en matière de données sensibles.
- Instaurer des audits réguliers des modèles, incluant des tests de biais, de robustesse et de conformité.
- Mettre en place une communication transparente vers les collaborateurs, les clients et les partenaires sur l’usage de l’IA et ses limites.
5.2. Comparer deux approches : IA naïve vs IA responsable
Le tableau suivant illustre la différence entre une approche « naïve » de l’IA et une approche « responsable », telle que la défend Jacques Pommeraud.
| Dimension | IA naïve | IA responsable |
|---|---|---|
| Objectif principal | Gagner du temps, réduire les coûts à court terme | Créer de la valeur durable, alignée avec les valeurs et la vérité |
| Perception de l’IA | Outil « magique » qui a toujours raison | Outil puissant mais limité, qui doit être interrogé et contrôlé |
| Gouvernance | Diffusée, floue, non documentée | Rôles, règles et responsabilités clairement définis |
| Gestion des biais | Traitée au cas par cas, souvent après incident | Testée, mesurée et corrigée de manière systématique |
| Formation des équipes | Limitée à quelques experts techniques | Élargie aux métiers, managers et fonctions support |
| Transparence | Minimale, l’IA est cachée ou floue pour l’utilisateur | Explicite : on dit quand et comment l’IA est utilisée |
| Relation à la vérité | On fait confiance aux sorties du modèle sans les questionner | On valorise le doute, la vérification et le « je ne sais pas » |
6. Une vision résolument positive : faire de la vérité un moteur d’innovation
En choisissant de parler de « Vérité » sur une scène consacrée à l’innovation, Jacques Pommeraud envoie un message encourageant aux dirigeants, aux entrepreneurs et aux équipes : l’éthique et la performance ne sont pas des forces opposées.
Une IA pensée dès le départ pour être :
- plus juste (réduction des biais, inclusion des points de vue variés),
- plus transparente (explication des données et des limites),
- plus maîtrisée (gouvernance, audits, conformité),
devient un accélérateur de confiance. Et la confiance, dans un monde saturé d’informations et de doutes, est l’un des plus puissants leviers de croissance.
En plaçant la vérité au cœur de l’IA, les organisations ne se contentent pas de réduire leurs risques : elles créent les conditions d’une innovation durable, capable de transformer en profondeur leurs métiers tout en respectant leurs clients, leurs collaborateurs et la société.
C’est, en filigrane, l’une des grandes leçons de cette intervention sur le Bang à Big 2025 : l’avenir de l’IA sera responsable, ou il sera décevant. Aux entreprises de saisir cette opportunité pour faire de la vérité non pas une contrainte, mais un avantage décisif.