Catégorie : Savoir-faire et expertise

  • L’IA rend-elle vos équipes meilleures ou juste plus rapides ?

    L’IA rend-elle vos équipes meilleures ou juste plus rapides ?

    Je ne cesse de lire des rapports pour tenter de mieux comprendre et anticiper l’impact de l’IA sur les individus et les organisations. Faire le lien entre toutes ces analyses est ardu. Mais j’ai trouvé une clé de lecture qui permet d’assembler pas mal de pièces du puzzle et de relier enfin les usages de l’IA à la valeur qu’ils génèrent. Il s’agit d’une étude réalisée par deux chercheurs australiens (Lodge et Loble, UTS) qui explique en grande partie ce que l’on observe : les ROI décevants, les adoptions qui plafonnent, les Copilot qu’on paie et que personne n’utilise…

    Spoiler : ce n’est pas un problème de technologie mais bien de conception. Un produit IA mal conçu dégrade les compétences de ceux qui l’utilisent. Et ça coûte une fortune.

    Je vous propose un plongeon dans quelques travaux de recherche et les chiffres de 2025-2026 pour comprendre pourquoi la conception des produits IA est devenue un enjeu de souveraineté. Pas seulement technologique. Économique, compétitive, et humaine.

    La valeur de l’IA vous échappe. Et ce n’est pas un problème d’outil.

    56 % des PDG interrogés par PwC en janvier 2026 déclarent que l’IA n’a produit ni augmentation de revenus, ni réduction de coûts dans leur organisation (source). 95 % des pilotes d’IA générative ne génèrent aucun impact mesurable sur le compte de résultat, selon le MIT (source). Gartner place officiellement l’IA générative dans le « creux de la désillusion » de son Hype Cycle 2025 (source).

    Face à ces résultats, la réaction est généralement d’investir encore plus dans les outils en espérant qu’ils soient meilleurs. De passer le plus vite possible à la version suivante. D’ajouter des licences. Bref, y aller en marche forcée.

    Et évidemment c’est la mauvaise réponse. Ce que le rapport Lodge & Loble démontre, c’est que le problème est en amont : dans la façon dont les logiciels IA sont conçus. Quand une solution IA est déployée sans réflexion sur ce que l’utilisateur doit garder comme effort cognitif et ce qu’il peut déléguer, il ne rend pas les gens plus productifs. Il les rend moins compétents.

    Et c’est exactement ce que les chiffres confirment, secteur après secteur.

    Le mécanisme : comment un mauvais design détruit de la valeur

    Dans une expérimentation sur près de 1 000 lycéens en mathématiques (Bastani et al., 2025), ceux qui utilisaient l’IA résolvaient mieux les problèmes pendant qu’ils avaient accès à l’outil. Mais une fois l’IA retirée, leur capacité s’effondrait. La performance assistée ne s’était pas transformée en compétence. Les chercheurs appellent ça le « paradoxe de performance ».

    Ce n’est pas un résultat isolé. Une étude METR de juillet 2025, en conditions contrôlées, montre que des développeurs expérimentés utilisant des assistants IA de codage étaient 19 % plus lents que ceux qui travaillaient sans, tout en étant convaincus d’avoir été plus rapides. Le rapport DORA de Google confirme ce qui semble être un paradoxe en s’appuyant sur une étude menée sur 39 000 professionnels : chaque hausse de 25 % du taux d’adoption de l’IA dans les équipes se traduit par une baisse de 1,5 % de la vitesse de livraison et de 7,2 % de la stabilité des systèmes.

    Le mécanisme est simple. Les applications d’IA (générative) produisent des réponses fluides, bien formulées, convaincantes. Cette fluidité crée une illusion de compétence. L’utilisateur confond la facilité de lecture avec la profondeur de compréhension. Il fait moins d’effort. Et moins il fait d’effort, plus il a besoin de l’outil. Les chercheurs ont un mot pour ça : la paresse métacognitive.

    Stanford et BetterUp ont chiffré le coût de ce cercle vicieux en septembre 2025. Le contenu produit par l’IA sans supervision, ce qu’ils appellent le « workslop » (du contenu qui a l’air bien mais qui ne vaut rien), coûte en moyenne 186$ par employé et par mois en retravail. Pour une entreprise de 10 000 personnes : 9 millions de dollars par an.

    Ce n’est pas l’IA qui est en cause. C’est le design de l’interaction entre les technologies d’IA et l’utilisateur. La même technologie, utilisée différemment, produit des résultats opposés.

    Bien conçu vs mal conçu : la preuve par les chiffres

    Le rapport Lodge & Loble propose une dichotomie des usages tout à fait pertinente :

    • Il y a la délégation bénéfique : confier à l’IA ce qui n’est pas le travail de fond. Compiler des données, vérifier une syntaxe, générer une première structure. Ça libère la tête pour ce qui compte : analyser, arbitrer, décider. Une étude montre que des personnes formées à ne déléguer que les tâches de bas niveau ont obtenu des gains très nets en pensée critique par rapport aux groupes témoins.
    • Et il y a la délégation préjudiciable : confier à l’IA le travail qui construit la compétence elle-même. Quand un professionnel demande à l’IA de formuler le diagnostic, d’écrire l’analyse ou de produire la recommandation, il court-circuite le processus qui fait de lui un expert. Le rapport le dit sans détour : l’information récupérée via des techniques d’IA ne s’intègre pas dans les structures de connaissance nécessaires au raisonnement complexe. Elle reste dans l’outil. Pas dans la tête.

    L’étude Harvard/BCG/Wharton sur 758 consultants BCG illustre exactement cette ligne de partage. Sur les tâches que l’IA maîtrise, les utilisateurs sont 25% plus rapides et produisent 40% de qualité en plus. Mais sur les tâches qui sortent du périmètre de l’IA, ceux qui l’utilisent ont 19% de chances en moins de produire une réponse correcte. Ils ont délégué leur jugement en même temps que leur travail.

    La différence entre les deux scénarios ? Le design du produit. Dans le premier cas, le produit est conçu pour que l’utilisateur reste maître du raisonnement. Dans le second, il est conçu pour aller vite, et l’utilisateur décroche.

    Pourquoi c’est un problème de souveraineté

    Quand on parle de souveraineté et d’IA, on pense tout de suite aux supercalculateurs, aux modèles, aux données. C’est nécessaire. Mais c’est loin d’être suffisant.

    Il me semble qu’il y a trois dimensions de souveraineté en jeu. Et la plus négligée est celle qui coûte le plus cher :

    1. Souveraineté des ressources et de l’infrastructure. Plus de 80 % de l’infrastructure IA européenne repose sur des fournisseurs américains (source). Hardware, modèles de fondation, plateformes cloud : chaque couche crée une dépendance avec des acteurs dont les intérêts ne sont pas alignés avec les nôtres. L’Europe investit pour rattraper son retard (10 milliards via EuroHPC, AI Factories dans 16 États membres, 2,22 milliards pour la stratégie IA française). Le rapport Draghi (septembre 2024) a sonné l’alarme : seules 4 des 50 premières entreprises tech mondiales sont européennes (source). L’effort est réel. Mais il ne suffit pas. Un supercalculateur souverain ne sert à rien si les produits qui tournent dessus rendent leurs utilisateurs moins compétents. L’article 4 de l’AI Act, en vigueur depuis le 2 février 2025, impose d’ailleurs à toute organisation d’assurer un niveau suffisant de littératie IA (aptitude à utiliser l’IA dans la vie courante) chez ses collaborateurs (source). Ce n’est pas une recommandation. C’est une obligation réglementaire. Et pourtant seules 9,9 % des entreprises françaises utilisaient l’IA en 2024, contre 27,6 % au Danemark (source). L’écart n’est pas technologique. Il est méthodologique. La souveraineté de l’infrastructure est nécessaire. Mais sans souveraineté de la conception, elle ne produit rien.
    2. Souveraineté économique. C’est la conséquence directe du premier point, et la moins visible. Quand une entreprise française construit un produit au-dessus d’un LLM hébergé chez OpenAI ou Anthropic, l’essentiel de la valeur part à l’étranger. Les emplois qualifiés ne sont pas créés ici. Les données d’usage, cet or numérique qui nourrit l’amélioration continue des modèles, ne sont pas thésaurisées chez nous. C’est un patrimoine jeté par la fenêtre, souvent sans que les porteurs du projet en ait conscience. McKinsey montre sur 300 déploiements que les organisations qui captent réellement la valeur de l’IA investissent 2 à 3 dollars en montée en compétences pour chaque dollar d’outillage (source). Celles qui se contentent d’acheter des licences voient l’adoption plafonner à 34 % en six mois. BCG confirme : le succès de l’IA dépend à 10 % des algorithmes, 20 % de la technologie, et 70 % des personnes et des processus (source). La valeur économique de l’IA est captée par ceux qui investissent dans la conception de l’usage. Pas dans la licence.
    3. Souveraineté des savoir-faire. C’est la dimension la plus critique et la plus ignorée. L’usage de solutions génériques, inadaptées aux métiers de l’entreprise, paupérise les compétences. Il infantilise les novices en leur donnant des réponses qu’ils ne savent pas vérifier. Il isole les experts et rend invisible la valeur de ce qu’ils savent. Et plus globalement, il ne rend pas les utilisateurs meilleurs dans ce qu’ils font. Le rapport Lodge & Loble met un nom sur ce phénomène : l’effet Matthieu. Les experts qui ont déjà un socle solide savent quoi déléguer et quoi garder. Ils tirent profit de l’IA. Les profils moins expérimentés, eux, n’ont pas ce filtre. Ils s’y fient davantage, apprennent moins, deviennent plus dépendants. L’écart se creuse. IDC estime que le déficit de compétences coûtera 5 500 milliards de dollars à l’économie mondiale d’ici fin 2026 (source). Mais au-delà du chiffre macro, la question pour un dirigeant est plus simple : qu’est-ce qui fait « boîte » au bout du bout ? Ce sont les savoir-faire. C’est la culture opérationnelle. C’est ce qu’un concurrent ne peut pas copier en achetant la même licence. Et c’est exactement ce que l’IA générique, déployée sans cadre, dissout à petit feu. Un produit IA bien conçu développe ce patrimoine. Un produit mal conçu l’atrophie. C’est un choix de conception, pas une fatalité technologique.

    Reprendre la valeur : ce que nous construisons à La Forge

    À La Forge, notre mission est claire : développer des produits IA qui rendent leurs utilisateurs meilleurs dans ce qu’ils font. Quand on l’a formulée en 2020, c’était une conviction. En 2026, c’est une réponse à un problème économique avéré.

    Concrètement, nous appliquons trois principes dans chaque produit.

    Le contexte métier est au cœur de la conception. La pensée critique n’est pas une compétence générique : un ingénieur pense de façon critique en s’appuyant sur ses connaissances techniques, un commercial sur sa connaissance du marché. C’est pourquoi nous partons toujours des savoir-faire métier, jamais d’une grille générique de cas d’usages IA. Le rapport Lodge & Loble le confirme : les compétences transversales enseignées hors contexte ne transfèrent pas.

    Pour chaque cas d’usage, la ligne entre augmentation et délégation est tracée dès la conception. La question que nous posons : si l’utilisateur fait cette tâche lui-même, est-ce que ça le fait mieux comprendre le problème ? Si oui, c’est un effort intrinsèque à protéger. Si non, le produit peut le prendre en charge.

    L’IA doit outiller l’expert, pas court-circuiter le novice. Le rapport montre qu’un outil d’assistance au tuteur (pas à l’élève) produit de meilleurs résultats chez les apprenants, y compris quand les tuteurs sont peu expérimentés, avec une réduction de coût de 165x par rapport à la formation traditionnelle (source).

    Notre programme de R&D travaille sur la frontière la plus difficile : comment mesurer, dans la durée, si un produit IA augmente réellement les savoir-faire de ses utilisateurs ou s’il les dégrade. C’est un sujet émergent, encore peu exploré par la recherche, et c’est là que La Forge veut innover.

    Si vous êtes intéressé, si vous sentez que la réponse ne peut pas être « distribuer des licences et espérer », parlons-en. La science donne les raisons d’agir. Les chiffres donnent l’urgence. Et la souveraineté de vos savoir-faire en dépend.

  • C’est une erreur d’envisager l’IA pour être plus performant !

    C’est une erreur d’envisager l’IA pour être plus performant !

    Notre société obsédée par la performance oublie l’essentiel : la robustesse.

    Dans le vivant, ce n’est ni la vitesse ni la perfection qui garantissent la survie, mais la robustesse qui est le fruit de l’adaptabilité, de la coopération et de la diversité.

    Le biologiste Olivier Hamant le montre : le vivant valorise l’imperfection, l’hétérogénéité, la lenteur et le bricolage plutôt que l’optimisation rigide. Les êtres vivants sont robustes avant d’être performants ; ils traversent des fluctuations en s’adaptant, pas en maximisant.

    Cette logique rejoint la vision d’entrepreneur d’Alexandre Mulliez (podcast Génération Do It Yourself #gens) : la performance n’est pas un but, c’est un résultat. On sert d’abord le client et on donne de l’autonomie aux équipes ; si ces deux axes sont bien traités, les KPI suivent. C’est l’esprit Toyota : s’occuper des clients et des équipes, pas courir après les chiffres.

    Et avec Nicolas Ravier, je découvre les travaux de Tanguy Châtel sur la vulnérabilité féconde : accepter nos limites n’est pas faiblir, c’est ouvrir des boucles d’apprentissage qui alignent nos actions avec nos valeurs, renforcent les liens et libèrent la créativité.

    Voilà le chaînon manquant : l’obsession de performance rigidifie et fragilise ; l’acceptation de la vulnérabilité crée des apprentissages, donc de la robustesse… qui, elle, conduit à une performance durable.

    La leçon pour l’IA ? Cessons d’en faire une machine à optimiser qui remplace l’humain. Construisons des systèmes qui augmentent l’intelligence collective, la coopération et l’apprentissage continu. La robustesse d’abord, la performance ensuite.

    C’est l’engagement de La Forge : développer une IA au service des savoir-faire des individus, de la robustesse des territoires et d’un modèle économique et social pérenne.

    Pour aller plus loin :

    Initialement publié sur LinkedIn.

  • Si vos projets IA n’augmentent pas vos experts, c’est l’échec à 95%

    Si vos projets IA n’augmentent pas vos experts, c’est l’échec à 95%

    Le chiffre est brutal : environ 95 % des projets pilotes d’IA générative n’aboutissent pas à un déploiement en production et ne produisent aucune valeur mesurable pour l’entreprise.

    Pourquoi cet échec massif ?

    Parce que nous nous concentrons sur le déploiement d’assistants génériques ou généralistes (« one-size-fits-all tools »), alors que la fiabilité et l’efficacité résident dans les usages spécialisés, conçus pour des problèmes précis. L’approche des géants de la Tech, qui consiste à vendre de l’IA généraliste (comme Copilot) est en train de générer un manque à gagner estimé à 800 milliards de dollars pour les entreprises d’IA d’ici à 2030.

    L’histoire de l’IA le prouve : des exemples comme AlphaFold (DeepMind) pour la prédiction de la structure des protéines ou les systèmes de conduite autonome de Waymo (Alphabet) prouvent que l’efficacité et la fiabilité résident dans la spécialisation. Ces systèmes sont bâtis sur la base de connaissances expertes spécifiques.

    L’IA Gen et l’IA Agentique sont des opportunités incroyables pour se transformer, mais encore faut-il les utiliser au bon niveau.

    Prenons une image : l’IA doit augmenter nos expertises, faire de nous des chirurgiens plus que des managers de tâches. Le chirurgien se concentre sur la partie critique du travail, laissant les tâches secondaires. Il entre dans une salle d’opération préparée. Il est prêt à faire ce pourquoi il excelle.

    ✊ Faisons de même. Soyons des artisans-experts et déléguons aux agents IA les tâches préparatoires ou secondaires.

    🎯 Il est devenu vital de concevoir et de lancer ces outils spécialisés qui servent l’expertise humaine. C’est notre mission à La Forge. Nous sommes un Product Studio IA qui bâtit des solutions pour démultiplier les savoir-faire par l’intelligence artificielle et rendre les individus meilleurs dans ce qu’ils font.

    🎁 Si vous vous interrogez sur le niveau d’utilisation de l’IA dans vos activités, envoyez-moi un message direct ou par commentaire et je vous partagerai notre méthode de diagnostic flash.

    Réflexions et sources : « Is AGI the right goal for AI? »

    Initialement publié sur LinkedIn.

  • IA : sortons de la fast fashion du savoir-faire ! ✊

    IA : sortons de la fast fashion du savoir-faire ! ✊

    En matière d’IA, on parle souvent d’emplois. On parle moins de qualité et de salaires.

    L’IA telle qu’imposée par les gros acteurs de la tech installe une réalité simple : une course au toujours-moins-cher, au détriment de l’expertise et de la qualité.

    Quand on nous propose comme seule stratégie l’automatisation de tâches ou le déploiement d’agents conversationnels génériques, je m’inquiète…

    C’est une course au moins-disant :

    • Moins de qualité pour des services et produits standardisés, conçus pour dominer le marché par les prix.
    • Moins de valeur pour les travailleurs, avec une déqualification massive (deskilling) et une pression à la baisse sur les salaires.
    • Moins de singularité, car les savoir-faire et les expertises métiers sont laminés par des solutions génériques, souvent étrangères.
    • Résultat ? Un modèle économique qui n’a rien à envier à la fast fashion : des produits et services jetables, conçus pour être remplacés, jamais pour durer.

    Les professions techniques et intellectuelles (développeurs, juristes, designers) sont en première ligne : déqualification, pression sur les salaires, érosion des emplois intermédiaires.

    Faut-il accepter cette fatalité ? Je ne pense pas, non.

    La Forge, contre l’allorythme (rythme étranger à soi), pour une IA qui élève.

    Nous refusons la médiocrité déflationniste. Notre mission ? Démultiplier les savoir-faire par l’IA pour rendre les individus meilleurs dans ce qu’ils font.

    Notre réponse ? Un Product Studio IA qui place l’excellence au cœur de la technologie pour créer de la valeur au lieu d’alimenter la perte de qualité.

    Nos 3 leviers pour briser la spirale :

    1️⃣ Valoriser les savoir-faire singuliers : pas de solutions génériques. Nous co-développons des produits IA concrets, ancrés dans les expertises et les territoires.

    2️⃣ Repenser la souveraineté : aider les entreprises à devenir éditrices de leurs solutions IA, pour capter la valeur créée. Éviter la dépendance aux plateformes étrangères qui uniformisent et appauvrissent.

    3️⃣ Sortie de la guerre des prix : En développant des produits IA à forte valeur d’usage, nous quittons la spirale déflationniste pour des modèles économiques basés sur la valeur créée.

    Et vous, quel rôle jouez-vous dans cette bataille ?

    👉 Avez-vous déjà été confronté à cette logique de déflation par l’IA ?

    Un grand merci à Hubert Guillaud pour cet excellent billet qui a nourri cette réflexion : … A l’IA pour faire régner la terreur

    Initialement publié sur LinkedIn.

  • L’IA : entre béquille intellectuelle et entraîneur exigeant

    L’IA : entre béquille intellectuelle et entraîneur exigeant

    🥋Croire qu’on peut former une génération à coups de prompts, c’est oublier que même Daniel LaRusso a dû peindre des palissades avant de monter sur le tatami.

    Face à l’IA deux voies s’offrent à nous :

    🏖️ La voie de la facilité : tout, tout de suite

    C’est la tentation de la passivité devant des outils qui font à notre place.

    Conséquences immédiates :

    • Tremplins cassés. L’IA automatise les tâches et supprime les petits boulots. Toutes ces missions ingrates qui forment les juniors par la pratique. Plus de terrain d’apprentissage, c’est moins de compétences.
    • Écart qui se creuse. En valorisant ceux qui savent l’utiliser pour leur métier, l’IA profite qu’aux experts.
    • Créativité en trompe-l’œil. Oui, l’IA peut doper la créativité individuelle. Collectivement, elle uniformise et appauvrit la nouveauté.
    • Pensée atrophiée. Les LLM améliorent l’apprentissage immédiat, mais n’entraînent pas à la réflexion. Quand tout arrive prémâché, la pensée critique s’effrite.
    • Dépendance algorithmique. Les plateformes actuelles transforment le savoir en spectacle cognitif. Vidéos courtes, contenus générés à la chaîne. Du fast-food mental qui stimule la dopamine, rend accro, mais ne nourrit pas l’esprit.

    🤓La voie de l’excellence : prendre le contrôle pour exiter l’IA qui nous grandit

    Les juniors n’apprendront pas par magie. Ils apprennent comme Daniel avec M. Miyagi : lentement, par la répétition, l’effort. « Wax on, wax off » : des gestes apparemment inutiles qui forgent les réflexes et la maîtrise.

    Si vous n’avez pas la ref regardez :

    À nous de faire de l’IA un entraîneur exigeant comme M. Miyagi, pas une béquille intellectuelle.

    Il est temps de choisir la voie de l’excellence, pour faire de l’IA un levier de développement et non un gadget d’assistanat.

    C’est la mission de La Forge : rendre les individus meilleurs par l’IA.

    Qui est partant pour cette approche exigeante ?

    Si le sujet vous parle et que vous souhaitez participer à nos travaux sur le sujet, avec vos équipes et les nôtres, contactez-moi.

    Quelques articles très interessant  pour étayer ce constat :

    Initialement publié sur LinkedIn.

  • Design vs IA : une rivalité mal comprise pour un faux match avec de vrais dégâts (spoiler : nous !)

    Design vs IA : une rivalité mal comprise pour un faux match avec de vrais dégâts (spoiler : nous !)

    Encore une perle d’Hubert Guillaud, à partir des travaux de Nolwenn Maudet.

    Tout d’abord le constat ➡️ l’IA générative c’est la standardisation des interactions : mêmes patterns, mêmes frictions, moins de contrôle. On “simplifie” en retirant le volant. ⚠️ Paupérisation des usages

    Ce que je retiens et qui fait écho à nos convictions à La Forge :

    • Les interfaces ne sont pas une fin : elles permettent l’action humaine. La vague IA pousse pourtant à les effacer au profit d’agents « tout-en-un ».
    • Du côté IA, méfiance envers l’action explicite des utilisateurs ; du côté design, volonté de laisser paramétrer et régler.
    • « Le design reste la condition de succès de l’IA » : le succès de TikTok tient d’abord à son UX (le scroll hypnotique) plus qu’au seul algo de reco.
    • Standardisation et appauvrissement des interactions : on revient vers une « informatique mainframe ».  🤕 Ça pique, mais je trouve la comparaison tellement juste !

    Reco de Nolwenn Maudet :
    1️⃣ Améliorer les IA et améliorer les interfaces nécessite une bien meilleure collaboration entre les concepteurs d’IA et les concepteurs d’interfaces.
    2️⃣ réaffirmer l’objectif de l’IHM : « mettre la puissance de l’ordinateur entre les mains des utilisateurs et d’accroître le potentiel humain plutôt que celui de la machine ».

    Conclusion : l’IA a besoin d’interfaces, d’une manière ou d’une autre. A nous de les concevoir !

    Initialement publié sur LinkedIn.