L’IA rend-elle vos équipes meilleures ou juste plus rapides ?

Je ne cesse de lire des rapports pour tenter de mieux comprendre et anticiper l’impact de l’IA sur les individus et les organisations. Faire le lien entre toutes ces analyses est ardu. Mais j’ai trouvé une clé de lecture qui permet d’assembler pas mal de pièces du puzzle et de relier enfin les usages de l’IA à la valeur qu’ils génèrent. Il s’agit d’une étude réalisée par deux chercheurs australiens (Lodge et Loble, UTS) qui explique en grande partie ce que l’on observe : les ROI décevants, les adoptions qui plafonnent, les Copilot qu’on paie et que personne n’utilise…

Spoiler : ce n’est pas un problème de technologie mais bien de conception. Un produit IA mal conçu dégrade les compétences de ceux qui l’utilisent. Et ça coûte une fortune.

Je vous propose un plongeon dans quelques travaux de recherche et les chiffres de 2025-2026 pour comprendre pourquoi la conception des produits IA est devenue un enjeu de souveraineté. Pas seulement technologique. Économique, compétitive, et humaine.

La valeur de l’IA vous échappe. Et ce n’est pas un problème d’outil.

56 % des PDG interrogés par PwC en janvier 2026 déclarent que l’IA n’a produit ni augmentation de revenus, ni réduction de coûts dans leur organisation (source). 95 % des pilotes d’IA générative ne génèrent aucun impact mesurable sur le compte de résultat, selon le MIT (source). Gartner place officiellement l’IA générative dans le « creux de la désillusion » de son Hype Cycle 2025 (source).

Face à ces résultats, la réaction est généralement d’investir encore plus dans les outils en espérant qu’ils soient meilleurs. De passer le plus vite possible à la version suivante. D’ajouter des licences. Bref, y aller en marche forcée.

Et évidemment c’est la mauvaise réponse. Ce que le rapport Lodge & Loble démontre, c’est que le problème est en amont : dans la façon dont les logiciels IA sont conçus. Quand une solution IA est déployée sans réflexion sur ce que l’utilisateur doit garder comme effort cognitif et ce qu’il peut déléguer, il ne rend pas les gens plus productifs. Il les rend moins compétents.

Et c’est exactement ce que les chiffres confirment, secteur après secteur.

Le mécanisme : comment un mauvais design détruit de la valeur

Dans une expérimentation sur près de 1 000 lycéens en mathématiques (Bastani et al., 2025), ceux qui utilisaient l’IA résolvaient mieux les problèmes pendant qu’ils avaient accès à l’outil. Mais une fois l’IA retirée, leur capacité s’effondrait. La performance assistée ne s’était pas transformée en compétence. Les chercheurs appellent ça le « paradoxe de performance ».

Ce n’est pas un résultat isolé. Une étude METR de juillet 2025, en conditions contrôlées, montre que des développeurs expérimentés utilisant des assistants IA de codage étaient 19 % plus lents que ceux qui travaillaient sans, tout en étant convaincus d’avoir été plus rapides. Le rapport DORA de Google confirme ce qui semble être un paradoxe en s’appuyant sur une étude menée sur 39 000 professionnels : chaque hausse de 25 % du taux d’adoption de l’IA dans les équipes se traduit par une baisse de 1,5 % de la vitesse de livraison et de 7,2 % de la stabilité des systèmes.

Le mécanisme est simple. Les applications d’IA (générative) produisent des réponses fluides, bien formulées, convaincantes. Cette fluidité crée une illusion de compétence. L’utilisateur confond la facilité de lecture avec la profondeur de compréhension. Il fait moins d’effort. Et moins il fait d’effort, plus il a besoin de l’outil. Les chercheurs ont un mot pour ça : la paresse métacognitive.

Stanford et BetterUp ont chiffré le coût de ce cercle vicieux en septembre 2025. Le contenu produit par l’IA sans supervision, ce qu’ils appellent le « workslop » (du contenu qui a l’air bien mais qui ne vaut rien), coûte en moyenne 186$ par employé et par mois en retravail. Pour une entreprise de 10 000 personnes : 9 millions de dollars par an.

Ce n’est pas l’IA qui est en cause. C’est le design de l’interaction entre les technologies d’IA et l’utilisateur. La même technologie, utilisée différemment, produit des résultats opposés.

Bien conçu vs mal conçu : la preuve par les chiffres

Le rapport Lodge & Loble propose une dichotomie des usages tout à fait pertinente :

  • Il y a la délégation bénéfique : confier à l’IA ce qui n’est pas le travail de fond. Compiler des données, vérifier une syntaxe, générer une première structure. Ça libère la tête pour ce qui compte : analyser, arbitrer, décider. Une étude montre que des personnes formées à ne déléguer que les tâches de bas niveau ont obtenu des gains très nets en pensée critique par rapport aux groupes témoins.
  • Et il y a la délégation préjudiciable : confier à l’IA le travail qui construit la compétence elle-même. Quand un professionnel demande à l’IA de formuler le diagnostic, d’écrire l’analyse ou de produire la recommandation, il court-circuite le processus qui fait de lui un expert. Le rapport le dit sans détour : l’information récupérée via des techniques d’IA ne s’intègre pas dans les structures de connaissance nécessaires au raisonnement complexe. Elle reste dans l’outil. Pas dans la tête.

L’étude Harvard/BCG/Wharton sur 758 consultants BCG illustre exactement cette ligne de partage. Sur les tâches que l’IA maîtrise, les utilisateurs sont 25% plus rapides et produisent 40% de qualité en plus. Mais sur les tâches qui sortent du périmètre de l’IA, ceux qui l’utilisent ont 19% de chances en moins de produire une réponse correcte. Ils ont délégué leur jugement en même temps que leur travail.

La différence entre les deux scénarios ? Le design du produit. Dans le premier cas, le produit est conçu pour que l’utilisateur reste maître du raisonnement. Dans le second, il est conçu pour aller vite, et l’utilisateur décroche.

Pourquoi c’est un problème de souveraineté

Quand on parle de souveraineté et d’IA, on pense tout de suite aux supercalculateurs, aux modèles, aux données. C’est nécessaire. Mais c’est loin d’être suffisant.

Il me semble qu’il y a trois dimensions de souveraineté en jeu. Et la plus négligée est celle qui coûte le plus cher :

  1. Souveraineté des ressources et de l’infrastructure. Plus de 80 % de l’infrastructure IA européenne repose sur des fournisseurs américains (source). Hardware, modèles de fondation, plateformes cloud : chaque couche crée une dépendance avec des acteurs dont les intérêts ne sont pas alignés avec les nôtres. L’Europe investit pour rattraper son retard (10 milliards via EuroHPC, AI Factories dans 16 États membres, 2,22 milliards pour la stratégie IA française). Le rapport Draghi (septembre 2024) a sonné l’alarme : seules 4 des 50 premières entreprises tech mondiales sont européennes (source). L’effort est réel. Mais il ne suffit pas. Un supercalculateur souverain ne sert à rien si les produits qui tournent dessus rendent leurs utilisateurs moins compétents. L’article 4 de l’AI Act, en vigueur depuis le 2 février 2025, impose d’ailleurs à toute organisation d’assurer un niveau suffisant de littératie IA (aptitude à utiliser l’IA dans la vie courante) chez ses collaborateurs (source). Ce n’est pas une recommandation. C’est une obligation réglementaire. Et pourtant seules 9,9 % des entreprises françaises utilisaient l’IA en 2024, contre 27,6 % au Danemark (source). L’écart n’est pas technologique. Il est méthodologique. La souveraineté de l’infrastructure est nécessaire. Mais sans souveraineté de la conception, elle ne produit rien.
  2. Souveraineté économique. C’est la conséquence directe du premier point, et la moins visible. Quand une entreprise française construit un produit au-dessus d’un LLM hébergé chez OpenAI ou Anthropic, l’essentiel de la valeur part à l’étranger. Les emplois qualifiés ne sont pas créés ici. Les données d’usage, cet or numérique qui nourrit l’amélioration continue des modèles, ne sont pas thésaurisées chez nous. C’est un patrimoine jeté par la fenêtre, souvent sans que les porteurs du projet en ait conscience. McKinsey montre sur 300 déploiements que les organisations qui captent réellement la valeur de l’IA investissent 2 à 3 dollars en montée en compétences pour chaque dollar d’outillage (source). Celles qui se contentent d’acheter des licences voient l’adoption plafonner à 34 % en six mois. BCG confirme : le succès de l’IA dépend à 10 % des algorithmes, 20 % de la technologie, et 70 % des personnes et des processus (source). La valeur économique de l’IA est captée par ceux qui investissent dans la conception de l’usage. Pas dans la licence.
  3. Souveraineté des savoir-faire. C’est la dimension la plus critique et la plus ignorée. L’usage de solutions génériques, inadaptées aux métiers de l’entreprise, paupérise les compétences. Il infantilise les novices en leur donnant des réponses qu’ils ne savent pas vérifier. Il isole les experts et rend invisible la valeur de ce qu’ils savent. Et plus globalement, il ne rend pas les utilisateurs meilleurs dans ce qu’ils font. Le rapport Lodge & Loble met un nom sur ce phénomène : l’effet Matthieu. Les experts qui ont déjà un socle solide savent quoi déléguer et quoi garder. Ils tirent profit de l’IA. Les profils moins expérimentés, eux, n’ont pas ce filtre. Ils s’y fient davantage, apprennent moins, deviennent plus dépendants. L’écart se creuse. IDC estime que le déficit de compétences coûtera 5 500 milliards de dollars à l’économie mondiale d’ici fin 2026 (source). Mais au-delà du chiffre macro, la question pour un dirigeant est plus simple : qu’est-ce qui fait « boîte » au bout du bout ? Ce sont les savoir-faire. C’est la culture opérationnelle. C’est ce qu’un concurrent ne peut pas copier en achetant la même licence. Et c’est exactement ce que l’IA générique, déployée sans cadre, dissout à petit feu. Un produit IA bien conçu développe ce patrimoine. Un produit mal conçu l’atrophie. C’est un choix de conception, pas une fatalité technologique.

Reprendre la valeur : ce que nous construisons à La Forge

À La Forge, notre mission est claire : développer des produits IA qui rendent leurs utilisateurs meilleurs dans ce qu’ils font. Quand on l’a formulée en 2020, c’était une conviction. En 2026, c’est une réponse à un problème économique avéré.

Concrètement, nous appliquons trois principes dans chaque produit.

Le contexte métier est au cœur de la conception. La pensée critique n’est pas une compétence générique : un ingénieur pense de façon critique en s’appuyant sur ses connaissances techniques, un commercial sur sa connaissance du marché. C’est pourquoi nous partons toujours des savoir-faire métier, jamais d’une grille générique de cas d’usages IA. Le rapport Lodge & Loble le confirme : les compétences transversales enseignées hors contexte ne transfèrent pas.

Pour chaque cas d’usage, la ligne entre augmentation et délégation est tracée dès la conception. La question que nous posons : si l’utilisateur fait cette tâche lui-même, est-ce que ça le fait mieux comprendre le problème ? Si oui, c’est un effort intrinsèque à protéger. Si non, le produit peut le prendre en charge.

L’IA doit outiller l’expert, pas court-circuiter le novice. Le rapport montre qu’un outil d’assistance au tuteur (pas à l’élève) produit de meilleurs résultats chez les apprenants, y compris quand les tuteurs sont peu expérimentés, avec une réduction de coût de 165x par rapport à la formation traditionnelle (source).

Notre programme de R&D travaille sur la frontière la plus difficile : comment mesurer, dans la durée, si un produit IA augmente réellement les savoir-faire de ses utilisateurs ou s’il les dégrade. C’est un sujet émergent, encore peu exploré par la recherche, et c’est là que La Forge veut innover.

Si vous êtes intéressé, si vous sentez que la réponse ne peut pas être « distribuer des licences et espérer », parlons-en. La science donne les raisons d’agir. Les chiffres donnent l’urgence. Et la souveraineté de vos savoir-faire en dépend.

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *