Catégorie : IA, travail et société

  • L’IA rend-elle vos équipes meilleures ou juste plus rapides ?

    L’IA rend-elle vos équipes meilleures ou juste plus rapides ?

    Je ne cesse de lire des rapports pour tenter de mieux comprendre et anticiper l’impact de l’IA sur les individus et les organisations. Faire le lien entre toutes ces analyses est ardu. Mais j’ai trouvé une clé de lecture qui permet d’assembler pas mal de pièces du puzzle et de relier enfin les usages de l’IA à la valeur qu’ils génèrent. Il s’agit d’une étude réalisée par deux chercheurs australiens (Lodge et Loble, UTS) qui explique en grande partie ce que l’on observe : les ROI décevants, les adoptions qui plafonnent, les Copilot qu’on paie et que personne n’utilise…

    Spoiler : ce n’est pas un problème de technologie mais bien de conception. Un produit IA mal conçu dégrade les compétences de ceux qui l’utilisent. Et ça coûte une fortune.

    Je vous propose un plongeon dans quelques travaux de recherche et les chiffres de 2025-2026 pour comprendre pourquoi la conception des produits IA est devenue un enjeu de souveraineté. Pas seulement technologique. Économique, compétitive, et humaine.

    La valeur de l’IA vous échappe. Et ce n’est pas un problème d’outil.

    56 % des PDG interrogés par PwC en janvier 2026 déclarent que l’IA n’a produit ni augmentation de revenus, ni réduction de coûts dans leur organisation (source). 95 % des pilotes d’IA générative ne génèrent aucun impact mesurable sur le compte de résultat, selon le MIT (source). Gartner place officiellement l’IA générative dans le « creux de la désillusion » de son Hype Cycle 2025 (source).

    Face à ces résultats, la réaction est généralement d’investir encore plus dans les outils en espérant qu’ils soient meilleurs. De passer le plus vite possible à la version suivante. D’ajouter des licences. Bref, y aller en marche forcée.

    Et évidemment c’est la mauvaise réponse. Ce que le rapport Lodge & Loble démontre, c’est que le problème est en amont : dans la façon dont les logiciels IA sont conçus. Quand une solution IA est déployée sans réflexion sur ce que l’utilisateur doit garder comme effort cognitif et ce qu’il peut déléguer, il ne rend pas les gens plus productifs. Il les rend moins compétents.

    Et c’est exactement ce que les chiffres confirment, secteur après secteur.

    Le mécanisme : comment un mauvais design détruit de la valeur

    Dans une expérimentation sur près de 1 000 lycéens en mathématiques (Bastani et al., 2025), ceux qui utilisaient l’IA résolvaient mieux les problèmes pendant qu’ils avaient accès à l’outil. Mais une fois l’IA retirée, leur capacité s’effondrait. La performance assistée ne s’était pas transformée en compétence. Les chercheurs appellent ça le « paradoxe de performance ».

    Ce n’est pas un résultat isolé. Une étude METR de juillet 2025, en conditions contrôlées, montre que des développeurs expérimentés utilisant des assistants IA de codage étaient 19 % plus lents que ceux qui travaillaient sans, tout en étant convaincus d’avoir été plus rapides. Le rapport DORA de Google confirme ce qui semble être un paradoxe en s’appuyant sur une étude menée sur 39 000 professionnels : chaque hausse de 25 % du taux d’adoption de l’IA dans les équipes se traduit par une baisse de 1,5 % de la vitesse de livraison et de 7,2 % de la stabilité des systèmes.

    Le mécanisme est simple. Les applications d’IA (générative) produisent des réponses fluides, bien formulées, convaincantes. Cette fluidité crée une illusion de compétence. L’utilisateur confond la facilité de lecture avec la profondeur de compréhension. Il fait moins d’effort. Et moins il fait d’effort, plus il a besoin de l’outil. Les chercheurs ont un mot pour ça : la paresse métacognitive.

    Stanford et BetterUp ont chiffré le coût de ce cercle vicieux en septembre 2025. Le contenu produit par l’IA sans supervision, ce qu’ils appellent le « workslop » (du contenu qui a l’air bien mais qui ne vaut rien), coûte en moyenne 186$ par employé et par mois en retravail. Pour une entreprise de 10 000 personnes : 9 millions de dollars par an.

    Ce n’est pas l’IA qui est en cause. C’est le design de l’interaction entre les technologies d’IA et l’utilisateur. La même technologie, utilisée différemment, produit des résultats opposés.

    Bien conçu vs mal conçu : la preuve par les chiffres

    Le rapport Lodge & Loble propose une dichotomie des usages tout à fait pertinente :

    • Il y a la délégation bénéfique : confier à l’IA ce qui n’est pas le travail de fond. Compiler des données, vérifier une syntaxe, générer une première structure. Ça libère la tête pour ce qui compte : analyser, arbitrer, décider. Une étude montre que des personnes formées à ne déléguer que les tâches de bas niveau ont obtenu des gains très nets en pensée critique par rapport aux groupes témoins.
    • Et il y a la délégation préjudiciable : confier à l’IA le travail qui construit la compétence elle-même. Quand un professionnel demande à l’IA de formuler le diagnostic, d’écrire l’analyse ou de produire la recommandation, il court-circuite le processus qui fait de lui un expert. Le rapport le dit sans détour : l’information récupérée via des techniques d’IA ne s’intègre pas dans les structures de connaissance nécessaires au raisonnement complexe. Elle reste dans l’outil. Pas dans la tête.

    L’étude Harvard/BCG/Wharton sur 758 consultants BCG illustre exactement cette ligne de partage. Sur les tâches que l’IA maîtrise, les utilisateurs sont 25% plus rapides et produisent 40% de qualité en plus. Mais sur les tâches qui sortent du périmètre de l’IA, ceux qui l’utilisent ont 19% de chances en moins de produire une réponse correcte. Ils ont délégué leur jugement en même temps que leur travail.

    La différence entre les deux scénarios ? Le design du produit. Dans le premier cas, le produit est conçu pour que l’utilisateur reste maître du raisonnement. Dans le second, il est conçu pour aller vite, et l’utilisateur décroche.

    Pourquoi c’est un problème de souveraineté

    Quand on parle de souveraineté et d’IA, on pense tout de suite aux supercalculateurs, aux modèles, aux données. C’est nécessaire. Mais c’est loin d’être suffisant.

    Il me semble qu’il y a trois dimensions de souveraineté en jeu. Et la plus négligée est celle qui coûte le plus cher :

    1. Souveraineté des ressources et de l’infrastructure. Plus de 80 % de l’infrastructure IA européenne repose sur des fournisseurs américains (source). Hardware, modèles de fondation, plateformes cloud : chaque couche crée une dépendance avec des acteurs dont les intérêts ne sont pas alignés avec les nôtres. L’Europe investit pour rattraper son retard (10 milliards via EuroHPC, AI Factories dans 16 États membres, 2,22 milliards pour la stratégie IA française). Le rapport Draghi (septembre 2024) a sonné l’alarme : seules 4 des 50 premières entreprises tech mondiales sont européennes (source). L’effort est réel. Mais il ne suffit pas. Un supercalculateur souverain ne sert à rien si les produits qui tournent dessus rendent leurs utilisateurs moins compétents. L’article 4 de l’AI Act, en vigueur depuis le 2 février 2025, impose d’ailleurs à toute organisation d’assurer un niveau suffisant de littératie IA (aptitude à utiliser l’IA dans la vie courante) chez ses collaborateurs (source). Ce n’est pas une recommandation. C’est une obligation réglementaire. Et pourtant seules 9,9 % des entreprises françaises utilisaient l’IA en 2024, contre 27,6 % au Danemark (source). L’écart n’est pas technologique. Il est méthodologique. La souveraineté de l’infrastructure est nécessaire. Mais sans souveraineté de la conception, elle ne produit rien.
    2. Souveraineté économique. C’est la conséquence directe du premier point, et la moins visible. Quand une entreprise française construit un produit au-dessus d’un LLM hébergé chez OpenAI ou Anthropic, l’essentiel de la valeur part à l’étranger. Les emplois qualifiés ne sont pas créés ici. Les données d’usage, cet or numérique qui nourrit l’amélioration continue des modèles, ne sont pas thésaurisées chez nous. C’est un patrimoine jeté par la fenêtre, souvent sans que les porteurs du projet en ait conscience. McKinsey montre sur 300 déploiements que les organisations qui captent réellement la valeur de l’IA investissent 2 à 3 dollars en montée en compétences pour chaque dollar d’outillage (source). Celles qui se contentent d’acheter des licences voient l’adoption plafonner à 34 % en six mois. BCG confirme : le succès de l’IA dépend à 10 % des algorithmes, 20 % de la technologie, et 70 % des personnes et des processus (source). La valeur économique de l’IA est captée par ceux qui investissent dans la conception de l’usage. Pas dans la licence.
    3. Souveraineté des savoir-faire. C’est la dimension la plus critique et la plus ignorée. L’usage de solutions génériques, inadaptées aux métiers de l’entreprise, paupérise les compétences. Il infantilise les novices en leur donnant des réponses qu’ils ne savent pas vérifier. Il isole les experts et rend invisible la valeur de ce qu’ils savent. Et plus globalement, il ne rend pas les utilisateurs meilleurs dans ce qu’ils font. Le rapport Lodge & Loble met un nom sur ce phénomène : l’effet Matthieu. Les experts qui ont déjà un socle solide savent quoi déléguer et quoi garder. Ils tirent profit de l’IA. Les profils moins expérimentés, eux, n’ont pas ce filtre. Ils s’y fient davantage, apprennent moins, deviennent plus dépendants. L’écart se creuse. IDC estime que le déficit de compétences coûtera 5 500 milliards de dollars à l’économie mondiale d’ici fin 2026 (source). Mais au-delà du chiffre macro, la question pour un dirigeant est plus simple : qu’est-ce qui fait « boîte » au bout du bout ? Ce sont les savoir-faire. C’est la culture opérationnelle. C’est ce qu’un concurrent ne peut pas copier en achetant la même licence. Et c’est exactement ce que l’IA générique, déployée sans cadre, dissout à petit feu. Un produit IA bien conçu développe ce patrimoine. Un produit mal conçu l’atrophie. C’est un choix de conception, pas une fatalité technologique.

    Reprendre la valeur : ce que nous construisons à La Forge

    À La Forge, notre mission est claire : développer des produits IA qui rendent leurs utilisateurs meilleurs dans ce qu’ils font. Quand on l’a formulée en 2020, c’était une conviction. En 2026, c’est une réponse à un problème économique avéré.

    Concrètement, nous appliquons trois principes dans chaque produit.

    Le contexte métier est au cœur de la conception. La pensée critique n’est pas une compétence générique : un ingénieur pense de façon critique en s’appuyant sur ses connaissances techniques, un commercial sur sa connaissance du marché. C’est pourquoi nous partons toujours des savoir-faire métier, jamais d’une grille générique de cas d’usages IA. Le rapport Lodge & Loble le confirme : les compétences transversales enseignées hors contexte ne transfèrent pas.

    Pour chaque cas d’usage, la ligne entre augmentation et délégation est tracée dès la conception. La question que nous posons : si l’utilisateur fait cette tâche lui-même, est-ce que ça le fait mieux comprendre le problème ? Si oui, c’est un effort intrinsèque à protéger. Si non, le produit peut le prendre en charge.

    L’IA doit outiller l’expert, pas court-circuiter le novice. Le rapport montre qu’un outil d’assistance au tuteur (pas à l’élève) produit de meilleurs résultats chez les apprenants, y compris quand les tuteurs sont peu expérimentés, avec une réduction de coût de 165x par rapport à la formation traditionnelle (source).

    Notre programme de R&D travaille sur la frontière la plus difficile : comment mesurer, dans la durée, si un produit IA augmente réellement les savoir-faire de ses utilisateurs ou s’il les dégrade. C’est un sujet émergent, encore peu exploré par la recherche, et c’est là que La Forge veut innover.

    Si vous êtes intéressé, si vous sentez que la réponse ne peut pas être « distribuer des licences et espérer », parlons-en. La science donne les raisons d’agir. Les chiffres donnent l’urgence. Et la souveraineté de vos savoir-faire en dépend.

  • La course aux LLM n’est que la partie émergée de l’iceberg.

    La course aux LLM n’est que la partie émergée de l’iceberg.

    Le véritable enjeu stratégique, c’est la collecte et l’exploitation de nos données.

    Dans un échange récent, Robby Stein (VP Product, Google Search) rappelle une vérité rarement abordée dans le débat public : ce qui donne à Google (ou à tout géant technologique) son avance, ce n’est pas uniquement sa capacité à entraîner des modèles. C’est l’immense volume de données d’usage collectées via les services du quotidien.

    C’est ce qu’il sait de nous. Gmail, Maps, Chrome, Drive…

    Ces données permettent d’améliorer en continu les modèles, mais surtout d’accroître la personnalisation, jusqu’à rendre certains services quasi incontournables.

    La mécanique est simple. Un modèle moyen nourri de beaucoup de données dépasse un excellent modèle qui n’a presque rien à apprendre. Énoncé ainsi, cela paraît trivial. Pourtant, cette réalité change notre responsabilité collective.

    Si nous voulons des champions français et européens capables de rivaliser, il faut leur donner les moyens d’apprendre, de progresser et de rester compétitifs. Cela implique de les utiliser, de tester leurs produits et de leur confier nos données de manière encadrée, maîtrisée et transparente.

    C’est exactement la mission de La Forge : construire des produits d’IA utiles, responsables, qui démultiplient les savoir-faire de ses utilisateurs. Une solution IA qui respecte l’utilisateur, exploite raisonnablement des données et crée de la valeur pour les écosystèmes qui les portent. Ni défiance généralisée, ni dépendance aux plateformes étrangères. Une voie concrète et pragmatique.

    À l’heure où les géants renforcent leur avance grâce à ce qu’ils savent déjà de nous, une question devient stratégique : voulons-nous simplement consommer l’IA des autres, ou participer à l’écriture de notre propre modèle de société numérique ?

    Sources :
    📺 Google Turned Search Into an AI Agent. What Happens Next?
    📃 One of Google’s biggest AI advantages is what it already knows about you

    Initialement publié sur LinkedIn.

  • La France, bonnet d’âne de l’IA à l’école 🫏

    La France, bonnet d’âne de l’IA à l’école 🫏

    Seulement 14% des enseignants français ont utilisé l’intelligence artificielle en classe cette année.

    14%. Le chiffre le plus bas de toute la zone OCDE.

    À Singapour, c’est 76%. 3 enseignants sur 4.

    Chez nous ? À peine 1 sur 7.

    J’ai lu ce week-end l’enquête internationale sur l’enseignement et l’apprentissage de l’OCDE publiée le 7 octobre et c’est édifiant !

    Pendant que d’autres pays inventent déjà la salle de classe augmentée, la France reste coincée dans une logique d’interdiction, de retard, et de peur.

    Résultat : nous creusons l’écart avec ceux qui forment déjà leurs enfants à vivre avec l’IA.

    Ne nous trompons pas : le problème n’est pas les enseignants car ils sont passionnés et engagés.

    Le problème, c’est un système qui ne leur donne ni formation, ni outils, ni confiance. Moins de 10% ont reçu une formation à l’IA. Et on s’étonne qu’ils n’osent pas se lancer…

    La réalité est crue : nous sommes de très mauvais élèves.

    Mais le constat n’est pas une fatalité. Au contraire, c’est un point de départ.

    « Il ne faut pas avoir peur de se lancer » nous dit d’ailleurs Éric Charbonnier, analyste à l’OCDE. La France a toutes les ressources pour rattraper son retard : des enseignants passionnés et innovants, des chercheurs de pointe en IA, des startups EdTech pleines d’idées, et des parents prêts à soutenir les initiatives positives pour nos enfants.

    Ce qu’il nous faut maintenant, c’est une mobilisation collective et réelle :
    former massivement nos professeurs aux outils numériques et à l’IA
    créer un cadre clair et éthique pour leur usage en classe, et surtout
    partager les bonnes pratiques entre enseignants.

    La France a raté le début de la course, mais la course n’est pas finie. Mais je refuse que l’école de la République reste à la traîne sur un enjeu si crucial pour l’avenir.

    Maintenant, on appuie sur l’accélérateur sans jamais perdre de vue l’essentiel : l’humain.

    Et vous, qu’en pensez-vous ? Comment imagineriez-vous l’IA améliorer notre école ?

    Nos convictions La Forge :

    • Humanisme : placer l’enseignant et l’élève au centre, non à la tech.
    • Souveraineté : ne pas dépendre des solutions des géants étrangers.
    • Compétitivité : doter chaque territoire de ses propres outils IA.


    L’enquête : Results from TALIS 2024

    Ne laissons pas l’école française devenir un musée. Forgeons ensemble son avenir :
    – Enseignants : quels sont les freins à lever ?
    – Élèves et étudiants : quelles sont vos idées et attentes ?
    – Parents : quelles garanties attendez-vous ?
    – Citoyens : quelle initiative locale seriez-vous prêts à soutenir ?

    Partagez vos idées et identifiez une personne à qui faire passer le message 👍

    Initialement publié sur LinkedIn.

  • Futur du travail et IA : arrêtons de jouer dans le metaland ☢️

    Futur du travail et IA : arrêtons de jouer dans le metaland ☢️

    Avec la Gen AI, on peut produire des kilomètres de slides qui donnent l’illusion de bosser. Du verbiage calibré, des KPI sous Lexomil, et zéro valeur sur le terrain.

    Yves Caseau vient de publier un papier salutaire qui remet le réel au centre : « Le lean thinking est clé pour créer de la valeur avec l’IA. Ne pas confondre la carte et le territoire. »

    👀 À lire si vous souhaitez sortir de la « doxIA » qui nous empêche de voir les vrais enjeux.

    Quelques constats tirés l’articke, très bien sourcé, en particulier avec le livre d’Emmanuelle Duez sur la transfo du travail avec l’IA :

    1️⃣ L’engagement au travail s’effondre, la productivité patine, la « permacrise » sert d’alibi. Résultat : on commente la carte au lieu d’aller sur le territoire.

    2️⃣ Agents IA : oui, ils arrivent. Non, ils ne vont pas  » tout remplacer » demain matin. Ils déplacent le travail plus qu’ils ne le suppriment. La vraie question n’est pas quand adviendrait l’IA générale, mais  » que fait-on maintenant avec la CI (Cognitive Intelligence) pour augmenter le travail réel ? »

    3️⃣ Vibe coder n’est pas industrialiser. Générer du code, ça va vite. Le maintenir, l’intégrer au legacy, sécuriser, versionner… c’est là que la belle théorie se casse les dents. La révolution avance, mais à la vitesse d’un marathon. Ceux qui vendent le sprint vous vendent surtout du rêve.

    4️⃣ Le piège du metaland. Le metaland, c’est la carte : tableaux de bord, frameworks, narratifs. C’est super utile (et facile à coup de GenAI) mais à condition de rester couplé au territoire (le gemba). Débranché du réel, ça produit du bruit plutôt que de la valeur, alimente le désengagement et les “bullshit jobs”.

    Ces constats nourrissent nos réflexions La Forge dont la mission est de valoriser les savoir-faire par l’IA, partir du terrain, livrer des produits utiles, mesurer l’impact, industrialiser. Pas l’inverse.

    Merci Yves Caseau pour ce joli morceau de réflexion partagée 🙏

    Initialement publié sur LinkedIn.