L'Augmentique : fondements d'un nouveau concept pour l'ère de l'IA

Avant-propos : pourquoi nommer ce que l'on vit ?

Les grandes transitions technologiques n'existent pleinement dans la conscience collective que lorsqu'elles ont un nom. En 1962, Philippe Dreyfus forgeait « informatique » pour désigner la discipline naissante du traitement automatisé de l'information. En 1976, Louis Naugès inventait « bureautique » au retour d'une visite au Xerox PARC, après avoir vu de ses propres yeux ce que l'automatisation des bureaux allait produire. En 1978, Simon Nora et Alain Minc créaient « télématique » dans leur rapport présidentiel sur l'informatisation de la société. Chaque fois, c'est le mot qui a rendu le concept saisissable, structurable, enseignable, débattable.

Nous vivons une rupture d'une ampleur comparable. L'intelligence artificielle est en train de modifier profondément la capacité des individus, des équipes et des entreprises à travailler, à décider, à créer, à soigner, à enseigner. Mais cette réalité manque encore d'un terme précis, en français, qui la délimite et lui donne corps. Les expressions disponibles : « humain augmenté », « intelligence augmentée », « technologies d'augmentation », sont soit trop larges, soit trop chargées de connotations transhumanistes, soit de simples postures éthiques sans valeur disciplinaire.

Cet article propose et fonde le concept d'augmentique.

I. Genèse d'un terme : la méthode des grands néologues français

1.1 Le précédent bureautique : une leçon de méthode

Louis Naugès (1943–2024) a visité le Xerox PARC vers 1975 et y a découvert physiquement Ethernet, les écrans graphiques, les imprimantes laser, les premières stations de travail interactives. De retour en France, il constate un vide lexical majeur : le terme américain office automation n'a pas d'équivalent français. En 1976, lors d'un discours intitulé « les systèmes d'information numériques » à Grenoble, il propose le mot bureautique, construit sur le modèle de « informatique » (bureau + suffixe -tique, du grec -ική, « l'art de »).

Le mot suit alors une trajectoire en cinq ans : discours grenoblois (1976), fondation de la société « Bureautique SA » (ancrage entrepreneurial), numéro spécial de La Jaune et la Rouge (octobre 1981), arrêté de la Commission de Terminologie Informatique française (22 décembre 1981), publication au Journal Officiel (1982). Cinq ans entre la proposition et la reconnaissance d'État. Et pourtant, dès septembre 1980, Le Monde Diplomatique utilisait le terme tout en notant curieusement : « On ne sait pas qui a créé ce mot en France. » C'est la marque d'un néologisme réussi : il s'autonomise de son inventeur et vit de sa propre logique sociale.

Le patron morphologique du suffixe -tique a produit, en France, une série cohérente :

Terme Construction Année Inventeur
Informatique      information + automatique 1962 Philippe Dreyfus
Bureautique      bureau + -tique 1976 Louis Naugès et al.
Télématique      télécommunications + informatique 1978 Nora & Minc
Robotique      robot + -tique ~1980 générique
Domotique      domus + -tique ~1984 générique
Frontique      frontline + -tique ~2020 Louis Naugès (again)

Remarquons ce dernier point : Naugès lui-même a récidivé quarante ans plus tard en inventant « frontique » pour désigner les outils des travailleurs de terrain utilisant leur smartphone, selon exactement la même méthode. La cohérence méthodologique de sa démarche sur un demi-siècle est saisissante.

1.2 Les conditions d'un néologisme qui dure

L'histoire de « bureautique », comme celles d'« ordinateur » (Jacques Perret pour IBM, 1955), de « logiciel » (Philippe Renard/CII, 1969) ou de « télématique » (Nora-Minc, 1978), révèle six conditions nécessaires à la réussite d'un néologisme technologique :

  1. Un vide lexical réel : le terme doit nommer quelque chose qui existe mais n'a pas encore de nom dans la langue cible
  2. Une expérience directe de la réalité nommée : Naugès avait vu le PARC ; Perret avait manipulé l'IBM 650
  3. Une cohérence morphologique : le mot doit être « correctement formé » selon les patrons productifs de la langue
  4. Un ancrage dans la pratique : une entreprise, un cours, une conférence qui propagent le mot dans des usages concrets
  5. Une légitimation institutionnelle : commission de terminologie, Journal Officiel, dictionnaires
  6. Le paradoxe de l'effacement : la réussite du mot s'accompagne, paradoxalement, de l'oubli de son auteur, ce qui est le signe qu'il a vraiment pris

Toutes ces conditions sont aujourd'hui réunies pour un nouveau terme.


II. L'augmentique : définition, périmètre, originalité

2.1 Définition

L'augmentique est la discipline qui regroupe l'ensemble des technologies d'intelligence artificielle, des méthodes et des pratiques permettant à l'humain d'augmenter ses capacités de travail intellectuel, décisionnel et créatif.

Construction : augment(er) + -ique (suffixe disciplinaire français, du grec -ική).

Par analogie avec la série française :

  • L'informatique traite de l'information automatisée
  • La bureautique traite de l'automatisation des tâches de bureau
  • L'augmentique traite de l'augmentation des capacités humaines par l'IA

2.2 Ce que l'augmentique désigne précisément

L'augmentique couvre toute technologie d'IA dont la fonction principale est d'amplifier une capacité cognitive, décisionnelle ou créatrice de l'humain au travail, et non de la remplacer. Exemples :

  • Les assistants génératifs qui accélèrent la rédaction, l'analyse, la synthèse
  • Les outils de recherche sémantique qui étendent la mémoire organisationnelle
  • Les systèmes d'aide à la décision médicale, juridique ou financière
  • Les agents IA qui délèguent des tâches répétitives pour libérer l'attention vers des tâches à haute valeur ajoutée
  • Les environnements de co-création humain-IA dans les champs artistiques, scientifiques ou stratégiques

L'augmentique exclut les technologies IA dont la fonction est l'automatisation pure (remplacement d'un opérateur humain par un système autonome sans supervision humaine valorisée), même si la frontière entre augmentation et automatisation est dynamique et fait elle-même partie du champ de l'augmentique.

2.3 Un espace conceptuel réellement libre

La recherche de précédents français révèle un espace conceptuel largement libre. Le terme « augmentique » existe en français depuis au moins 2009, mais exclusivement dans l'univers de la fiction Warhammer 40K, où il désigne des implants cybernétiques bioniques (« augmentique : implant cybernétique »). Ce contexte est aussi étranger à l'IA professionnelle que l'usage de « robot » dans la pièce de Karel Čapek l'était à la robotique industrielle, et l'on sait comment l'histoire a résolu cette distance.

En dehors de la fiction, on ne trouve en français qu'un document Scribd de 2024, traduction automatique d'un manuel académique anglophone (De Gruyter, éd. Anthony Elliott, Handbook of Artificial Intelligence, Identity and Technology Studies), qui utilise « l'augmentique » comme traduction opportuniste du terme anglais augmentics. Il n'existe aucune définition, aucun article, aucune communauté de praticiens qui ait formalisé « augmentique » en français dans le sens de technologies IA augmentant les capacités humaines au travail.

L'antécédent anglophone le plus proche est le terme human augmentics, forgé en 2011 par Robert V. Kenyon et Jason Leigh (University of Illinois at Chicago) dans une communication à l'IEEE : « Human Augmentics (HA) refers to technologies for expanding the capabilities, and characteristics of humans. » Ce terme, repris par l'ouvrage de Zizi Papacharissi (A Networked Self and Human Augmentics, Artificial Intelligence, Sentience, Routledge, 2018), reste à ce jour non traduit en français comme terme disciplinaire structuré.

La définition française de l'augmentique comme discipline des technologies d'IA augmentant les capacités humaines au travail est, à la date du présent document (mars 2026), originale.

2.4 Ce que l'augmentique n'est pas : cartographie des termes adjacents

Terme Lacune Différence avec l'augmentique
Humain augmenté Connotation transhumaniste / modification corporelle Dit qui est augmenté, pas ce qui augmente ni comment
Technologies d'augmentation Générique, inclut exosquelettes, pharmacologie, génétique Aucune spécificité IA, pas de valeur disciplinaire
Augmentation cognitive Ancré en neurosciences et contexte militaire, couvre aussi la pharmacologie Résultat cognitif, non pratique professionnelle IA
Intelligence augmentée Terme défensif (posture éthique), devenu creux par excès d'usage marketing Posture, non discipline ; ne génère pas de métier ni de formation
AI augmentation (EN) Non ancré en français, corporate anglo-saxon Terme anglais, pas de communauté francophone
Exocortex Connotation science-fiction, désigne un dispositif technique singulier Implémentation, non champ disciplinaire
Esprit étendu / Cognition étendue Purement philosophique (Clark & Chalmers, 1998) Théorie ontologique, non pratique professionnelle
Capacitation / Empowerment numérique Politique publique d'inclusion, horizon : accès de base Vise la réduction des inégalités d'accès, non l'augmentation de la performance

L'augmentique occupe un espace unique : celui d'une discipline (avec méthodes, formation, corpus, praticiens) spécifiquement centrée sur l'IA comme vecteur d'augmentation des capacités humaines au travail, à l'exclusion des vecteurs biologiques, mécaniques ou pharmacologiques, et sans la charge transhumaniste des discours sur le corps modifié.

Philosophiquement, l'augmentique s'appuie sur deux fondements : la thèse de l'esprit étendu (Clark & Chalmers, 1998, confirmée par Nature Communications en 2025 pour l'IA générative) et la vision de la man-computer symbiosis de Licklider (1960), qui posait dès les origines de l'informatique que les machines devaient compléter les capacités humaines, non les supplanter.


III. La fracture augmentique : la nouvelle ligne de partage

3.1 Les trois fractures numériques

La notion de fracture numérique a évolué en plusieurs niveaux depuis les années 1990 :

Première fracture (années 1990-2000) : accès au matériel et à la connexion. La ligne de partage s'établissait entre les connectés et les non-connectés. En France, avec 94 % de taux de pénétration internet en 2025, cette fracture est largement résorbée.

Deuxième fracture (depuis Eszter Hargittai, Northwestern, 2002) : compétences et qualité d'usage. Hargittai démontre que l'accès seul ne suffit pas ; ce qui importe, c'est comment on utilise la technologie. Jan van Dijk (Université de Twente) a ensuite systématisé ce modèle en quatre dimensions (motivation, matériel, compétences, usage) et prévenait dès 2017 que « le déplacement de la première vers la deuxième fracture numérique sera probablement amplifié ».

Troisième fracture : les bénéfices réels tirés de l'usage (van Deursen & Helsper, 2015). Même parmi les utilisateurs compétents, les gains socio-économiques concrets sont très inégalement distribués.



3.2 La fracture augmentique : quatrième niveau

La fracture augmentique constitue un quatrième niveau, structurellement différent des trois précédents :

La fracture augmentique est la ligne de partage entre ceux – individus et organisations – qui utilisent l'IA pour multiplier leurs capacités de travail, et ceux qui ne le font pas ou pas encore. Ce n'est plus « connecté / non connecté », ni même « compétent / peu compétent » : c'est « augmenté par l'IA / non augmenté ».

Cette fracture présente trois caractéristiques inédites qui la distinguent des précédentes :

1. Elle est asymétrique et composée. Les gains de productivité des augmentés sont non linéaires. Les études expérimentales le montrent avec précision : des agents de service client utilisant l'IA traitent 34 % de cas supplémentaires par heure pour les moins expérimentés (14 % en moyenne) ; des programmeurs avec IA complètent leurs tâches en 71 minutes contre 161 sans IA ; des consultants en stratégie en dessous de la moyenne gagnent 43 % de performance avec l'IA contre 17 % pour ceux au-dessus de la moyenne. Des rédacteurs avec ChatGPT produisent une qualité supérieure de 18 % en 40 % moins de temps. Pendant ce temps, les non-augmentés restent stationnaires. La distance entre les deux groupes s'accroît de façon exponentielle.

2. Elle opère simultanément à l'échelle individuelle et organisationnelle. C'est ce qui la distingue fondamentalement des fractures précédentes, qui étaient principalement des phénomènes individuels ou géographiques. Les données d'entreprise le confirment nettement : en Europe (2025), 55 % des grandes entreprises (250+ salariés) utilisent l'IA contre 17 % des petites structures (Eurostat). Les gains de productivité suivent la même logique : +7,9 % pour les grandes entreprises contre quasi zéro pour les petites, selon une étude causale sur 12 000 entreprises européennes (BIS Working Paper 1325, 2025). L'OCDE (G7, décembre 2025) confirme que les PME sont trois fois moins susceptibles d'adopter l'IA que les grandes entreprises.

3. Elle est auto-renforçante. McKinsey (State of AI 2025) montre que les organisations qui tirent un vrai bénéfice de l'IA (impact EBITDA mesuré) sont trois fois plus susceptibles de reconstruire leurs processus de bout en bout, ce qui les place encore plus loin devant. 50 % des PME européennes déclarent manquer des compétences nécessaires pour utiliser l'IA (OCDE 2025), et moins de 30 % de celles qui adoptent l'IA offrent une formation aux collaborateurs. La fracture n'est pas un état stable : elle s'élargit.

3.3 Données de cadrage pour la France

  • 33 % des Français utilisent l'IA en 2025 (Baromètre du Numérique, ARCEP/ANCT/CGE) ; 67 % ne l'utilisent pas,
  • Seulement 15,1 % des citoyens européens utilisent l'IA au travail (Eurostat 2025), contre 32,7 % en usage personnel, révélant que même parmi les utilisateurs, l'augmentation professionnelle reste minoritaire,
  • 64 % des 16-24 ans utilisent l'IA en Europe, contre des taux bien inférieurs pour les 55 ans et plus (Eurostat, février 2026),
  • En France, seules 10 % des entreprises utilisaient l'IA en 2024 (vs. 13 % de moyenne européenne),
  • Les postes requérant des compétences IA affichent une prime salariale de 10 à 20 % (OCDE 2025).

3.4 L'analyse de Marguerit (2025) : la preuve empirique de la bifurcation

La démonstration empirique la plus récente et la plus rigoureuse de la fracture augmentique est celle de David Marguerit (LISER Luxembourg, arXiv:2503.19159, mars 2025). En construisant des indices séparés d'IA d'automatisation et d'IA d'augmentation à partir de 186 498 questions Stack Overflow (2010-2022), et en les croisant avec les données du marché du travail américain (2015-2022), il obtient des résultats structurellement opposés selon le type d'IA :

Indicateur   IA d'automatisation IA d'augmentation
Création d'emplois nouveaux   Aucun effet          Stimulation significative
Emploi agrégé   Aucun effet significatif          +3,1 % par écart-type
Salaires (bas qualifiés)   -7,7 % par écart-type          Aucun effet
Salaires (hauts qualifiés)   Aucun effet          Positif

La fracture augmentique n'est donc pas un effet de bord : c'est une bifurcation systémique de trajectoires économiques.

3.5 La nuance cruciale par rapport à la fracture numérique classique

La fracture augmentique se distingue de la fracture numérique classique sur plusieurs points fondamentaux :

a) Elle n'est pas résolue par l'accès seul. Un individu connecté, équipé d'un smartphone dernier cri et maîtrisant un traitement de texte n'est pas encore un individu augmenté. La fracture augmentique porte sur la qualité de la relation à l'IA, non sur l'accès à des outils.

b) Elle introduit une asymétrie cognitive, pas seulement économique. Le salon AI HumanX (Las Vegas, 2025) documente un « effet de méta-apprentissage » : les adoptants précoces de l'IA rapportent une transformation cognitive, un élargissement de leur sens du possible, non pas simplement un gain d'efficacité. C'est une bifurcation dans la manière même de penser et de résoudre des problèmes.

c) Elle comporte un paradoxe jevonsien. La thèse de Yu & Xu (2026) sur le Paradoxe de Jevons à l'ère de l'IA s'applique ici avec une acuité particulière : les gains d'augmentation individuelle (un collaborateur deux fois plus productif) peuvent, à l'échelle macroéconomique, créer des effets d'expansion qui finissent par exclure davantage de travailleurs. L'augmentique individuelle peut coexister avec une fracture augmentique systémique plus profonde.

d) Elle frappe différemment les individus et les organisations. Acemoglu (2024) montre que les gains IA se concentrent chez les propriétaires de capital et les travailleurs hautement qualifiés, creusant l'écart capital-travail. Brynjolfsson (2022) théorise le « Piège de Turing » : en construisant des IA qui imitent les humains plutôt qu'elles ne les étendent, on concentre la richesse chez quelques acteurs technologiques et on érode le pouvoir de négociation des travailleurs. La fracture augmentique n'est donc pas un simple problème de formation : c'est une question de gouvernance économique et sociale.

3.6 Vers une définition formelle

La fracture augmentique désigne l'ensemble des inégalités – entre individus, entre entreprises, entre secteurs et entre territoires – issues de l'écart entre ceux qui mobilisent activement l'IA pour augmenter leurs capacités de travail et ceux qui ne le font pas. Cette fracture ne recouvre pas la fracture d'accès numérique classique (premier niveau) ni la fracture de compétences d'usage (deuxième niveau) : elle en constitue un quatrième niveau, caractérisé par son asymétrie croissante, son double ancrage individuel et organisationnel, et son auto-renforcement dynamique.


IV. Pourquoi l'augmentique est un concept juste pour notre temps

4.1 Éviter le piège de la peur

Depuis 2016, le débat sur l'IA au travail est dominé par la question du remplacement : combien d'emplois vont disparaître ? Acemoglu lui-même, dans sa version macroéconomique la plus prudente (2024), estime à seulement 0,55-0,71 % les gains de productivité totale sur dix ans, très en deçà des annonces des géants technologiques. Ce débat, utile mais partial, escamote la question plus productive : qu'est-ce que l'IA permet de faire en plus ?

L'augmentique opère un déplacement de focale. Elle ne nie pas que l'automatisation existe et qu'elle déplace des tâches. Elle affirme que le mouvement le plus significatif, et le plus désirable, est celui qui amplifie l'expertise humaine, libère les professionnels des tâches sans valeur ajoutée, et crée de nouvelles capacités d'action. Comme le note Capraro & Lentsch dans PNAS Nexus (2024) : « les nouvelles technologies comme l'IA devraient être orientées non pas tant vers le remplacement des capacités humaines de résolution de problèmes, mais vers leur amélioration dans une relation symbiotique où les machines sont conçues pour compléter les capacités humaines. »

4.2 Un outil pour nommer, donc pour agir

La fracture augmentique est déjà là. Elle est mesurable (Eurostat, OCDE, BIS, ARCEP). Elle est documentée dans la recherche académique (Hargittai, Brynjolfsson, Acemoglu, Marguerit). Mais elle manque d'un nom en français qui lui permette de devenir un objet de politique publique, de stratégie d'entreprise, et de dialogue social.

C'est exactement ce que faisait « bureautique » en 1976 : nommer une réalité qui existait déjà mais n'avait pas encore de prise dans le langage. Sans le mot, pas de politique, pas de formation, pas d'investissement structuré.

Nommer la fracture augmentique, c'est rendre possible :

  • Des politiques publiques d'inclusion augmentique (au-delà de l'inclusion numérique),
  • Des diagnostics d'entreprise sur le niveau d'augmentation des équipes,
  • Des formations certifiantes aux pratiques augmentiques,
  • Un dialogue social sur le partage des gains d'augmentation entre capital et travail,
  • Une mesure de l'index augmentique comme indicateur complémentaire des indices de compétitivité.

4.3 L'IA générative comme déclencheur de l'ère augmentique

Les données suggèrent que l'ère augmentique a commencé en novembre 2022, date de lancement de ChatGPT. Avant cette date, l'accès grand public à des outils IA capables d'augmenter significativement des tâches intellectuelles complexes était inexistant. Depuis lors, la bifurcation entre augmentés et non-augmentés s'accélère selon une dynamique proche de ce que CreatorPro décrit comme un doublement de la complexité IA tous les six à huit mois.

L'IA générative n'est pas seulement un outil parmi d'autres : elle représente le premier outil augmentique véritablement accessible à l'ensemble des travailleurs du savoir, sans formation technique préalable. C'est ce caractère universel potentiel qui rend la fracture augmentique particulièrement urgente. Pour la première fois dans l'histoire des technologies, l'augmentation n'est pas réservée aux ingénieurs ou aux spécialistes. Et pourtant, elle reste profondément inégale dans les faits.


V. Conséquences pratiques et applications

5.1 Pour les individus

L'augmentique définit une nouvelle compétence transversale, distincte des compétences techniques (savoir coder), des compétences numériques de base (savoir utiliser un traitement de texte) et de la simple utilisation ponctuelle d'un outil IA. L'aptitude augmentique désigne la capacité d'un professionnel à :

  • Identifier les tâches où l'IA lui permettra de faire significativement mieux ou significativement plus,
  • Construire une relation continue et évolutive avec des outils IA (co-évolution, non utilisation ponctuelle),
  • Évaluer la qualité des outputs IA et savoir les corriger, les orienter, les remettre en question,
  • Maintenir et développer son expertise propre en évitant le « paradoxe de la dépendance » que les participants du salon AI HumanX documentaient : certains adoptants d'IA rapportent une perte de confiance dans leurs capacités natives.

5.2 Pour les organisations

Au niveau de l'entreprise, l'augmentique implique un choix stratégique fondamental que Brynjolfsson formule ainsi : automatisation d'abord ou augmentation d'abord ? Les données BIS (2025) montrent que ce choix n'est pas seulement éthique : il est économiquement déterminant. Les organisations qui restructurent leurs processus autour de l'augmentation humaine (et non du simple remplacement de coûts) captent des gains de productivité bien supérieurs et durables.

Pour les PME et TPE, la fracture augmentique est particulièrement critique. Avec seulement 17 % d'adoption IA contre 55 % pour les grandes entreprises (Eurostat 2025), avec 50 % des PME qui déclarent manquer de compétences et moins de 30 % qui forment leurs collaborateurs à l'IA (OCDE 2025), elles risquent de se retrouver dans une position concurrentielle structurellement dégradée : non plus par rapport aux marchés ou aux réglementations, mais par rapport à des concurrents qui opèrent avec des capacités augmentées.

5.3 Pour les politiques publiques

La fracture augmentique appelle un agenda politique spécifique, distinct des politiques d'inclusion numérique classique. Elle ne se résout pas en distribuant des équipements ou en finançant la connexion haut-débit. Elle requiert :

  • Des formations à l'aptitude augmentique dans l'enseignement professionnel et supérieur,
  • Un soutien à l'expérimentation augmentique dans les PME/TPE (au-delà du simple financement de logiciels),
  • Une réflexion sur la gouvernance augmentique : qui décide de l'orientation augmentation/automatisation dans les entreprises, et avec quel contrôle des parties prenantes ?
  • Une mesure régulière de la fracture augmentique par secteur, taille d'entreprise, territoire et démographie, intégrée aux dispositifs existants comme le Baromètre du Numérique.

Conclusion : l'augmentique comme horizon commun

La bureautique a mis cinq ans à passer d'un discours grenoblois au Journal Officiel. Elle a mis vingt ans à entrer dans les programmes scolaires et les dictionnaires. Elle a accompagné une transformation qui a touché la totalité des travailleurs de bureau de la planète.

L'augmentique désigne une transformation d'une ampleur au moins comparable. Elle ne s'arrêtera pas aux frontières des métiers du savoir : elle s'étend progressivement à la santé, à l'éducation, à l'artisanat, à la gestion publique. Et la fracture qu'elle crée, si elle n'est pas nommée, mesurée et politiquement adressée, risque de générer des inégalités structurelles que ni la connexion haut-débit ni la formation aux outils bureautiques ne pourront combler.

Comme le résume le PNUD dans son Rapport sur le Développement Humain 2025 : « Un monde d'AI haves et d'AI have-nots serait un monde d'instabilité perpétuelle. Nous ne devons jamais laisser l'IA signifier "advancing inequality". »

L'augmentique est le nom de ce que nous avons à construire ensemble. La fracture augmentique est le nom de ce que nous avons à éviter.


Références principales

  • Capraro, V. & Lentsch, A. (2024). The impact of generative artificial intelligence on socioeconomic inequalities and policy making. PNAS Nexus / PMC11165650.
  • Insight CreatorPro AI (2025). The Second Digital Divide: Automation vs. Augmentation.
  • AI Salon (2025). HumanX AI Salon - The Future of Work.
  • Yu, D. & Xu, B. (2026). The Jevons Paradox in the AI Era: AI applications for enhancing environmental sustainability at the firm level. Economic Analysis and Policy.
  • Hargittai, E. (2002). Second-Level Digital Divide: Differences in People's Online Skills. First Monday, 7(4).
  • Brynjolfsson, E. (2022). The Turing Trap: The Promise & Peril of Human-Like Artificial Intelligence. Dædalus, 151(2).
  • Acemoglu, D. & Restrepo, P. (2020). The Wrong Kind of AI? Artificial Intelligence and the Future of Labour Demand. Cambridge Journal of Regions, Economy and Society.
  • Acemoglu, D. (2024). The Simple Macroeconomics of AI. MIT Working Paper.
  • Marguerit, D. (2025). Augmenting or Automating Labor? The Effect of AI Development on Labor Market Outcomes. arXiv:2503.19159.
  • Aldasoro et al. (2025). AI Adoption, Productivity and Employment: Evidence from European Firms. BIS Working Paper No. 1325.
  • OECD (2025). AI Adoption by Small and Medium-Sized Enterprises. G7 Discussion Paper.
  • UNDP (2025). A Matter of Choice: People and Possibilities in the Age of AI. Human Development Report 2025.
  • Kenyon, R.V. & Leigh, J. (2011). Human Augmentics: Augmenting Human Evolution. IEEE EMBS Conference.
  • Papacharissi, Z. (ed.) (2018). A Networked Self and Human Augmentics, Artificial Intelligence, Sentience. Routledge.
  • La Jaune et la Rouge, n°367, octobre 1981. La Bureautique.

Je marche vers demain

Je marche vers demain, avec l’IA, en gardant un œil sur ce qui ne demande rien.


Je marche, parce que rester immobile n’a jamais protégé le monde.
Je marche, parce que la nouveauté arrive toujours, qu’on l’invite ou non.
Et aujourd’hui, elle s’appelle intelligence artificielle.

Je ne la crains pas.
Je ne l’idolâtre pas non plus.

Je la regarde comme on regarde un outil puissant posé sur une table.
Tout dépendra de la main qui s’en saisit.
Et surtout de ce qu’elle oubliera de regarder en chemin.

Car pendant que nous optimisons, calculons, accélérons,
quelque chose continue d’exister sans faire de bruit.

Ce qui ne demande rien.
Ni performance, ni justification, ni retour sur investissement.

Un silence dans une forêt.
Un regard qui se perd.
Un temps long qui résiste.

Et parfois, si l’on accepte de ralentir,
si l’on cesse de tout vouloir comprendre, mesurer, nommer,
il y a encore des présences discrètes.

Certains appellent cela la nature.
D’autres parlent de poésie.
Moi, je crois qu’il reste encore des fées.

Non pas des créatures naïves ou enfantines.
Des fées comme symbole de ce que le monde garde de secret,
malgré nos algorithmes et nos certitudes.

Elles disparaissent quand on fait trop de bruit.
Elles s’éloignent quand tout devient utile.
Elles survivent là où l’on accepte de ne pas tout prendre.

Alors oui, avançons.
Inventons.
Explorons.

Mais sans piétiner ce qui ne réclame rien.
Sans effacer l’invisible sous prétexte d’efficacité.
Sans confondre progrès et oubli.

Je marche vers demain, avec l’IA.
Pas pour aller plus vite.
Pour aller plus juste.

Et si, en chemin, une fée traverse encore le paysage,
alors peut-être aurons-nous réussi quelque chose de rare :

faire entrer la nouveauté
sans faire sortir l’âme du monde.

L’IA générative ne transforme pas encore votre entreprise, elle amorce quelque chose de bien plus profond

L’intelligence artificielle est entrée dans nos vies. Elle s’invite dans nos outils quotidiens, dans nos logiciels métiers, dans nos réunions et parfois même dans nos réflexions stratégiques. On en parle, on teste, on explore, on s’émerveille… ou on s’inquiète.

Mais si cette vague technologique fascine autant, c’est peut-être parce qu’elle touche à quelque chose de plus profond. Une intuition émerge : ce que nous vivons aujourd’hui n’est qu’un prélude. L’intégration de l’IA générative — aussi spectaculaire soit-elle — n’est qu’une première étape, un passage obligé.

La véritable transformation, elle, reste à inventer.


L’IA ne transforme pas encore… mais elle éveille

Ce que l’on observe actuellement dans les entreprises est enthousiasmant : les collaborateurs testent ChatGPT, explorent Copilot, génèrent du contenu, des résumés, du code, des idées. Les DSI activent les fonctions augmentées dans les outils bureautiques ou métiers. La curiosité monte. La culture générale de l’IA s’élève.

Tout cela est utile. Nécessaire même. Car c’est un déclencheur.

Mais il faut rester lucide : malgré l’adoption croissante, les organisations, elles, ne bougent pas (encore). On ajoute un assistant, un bouton “générer”, un résumé automatique… mais on touche peu aux processus, aux logiques de décision, aux rôles, ni au sens du travail.

L’IA agit ici comme un révélateur. Elle expose les lenteurs, les inerties, les routines absurdes. Elle provoque un petit vertige… Et c’est justement ce vertige qui peut devenir fécond.


Ce que nous mettons en œuvre aujourd’hui : un socle, pas une fin

Les usages que nous développons aujourd’hui relèvent encore de l’expérimentation, de l’optimisation à la marge, ou de la productivité personnelle. Ils nous font gagner du temps, de l’énergie, parfois de la qualité. Mais ils ne redistribuent pas les cartes.

Et pour cause : l’entreprise reste structurée selon des logiques anciennes. Les métiers sont cloisonnés. Les décisions sont lentes. Les rôles sont figés. Les collaborateurs n’ont pas forcément la place, ni le cadre, pour réinventer.

Il faut aussi reconnaître que les IA ne sont pas assez déterministes pour remplacer des processus en confiance.

On injecte des doses d'IA dans une machine déjà complexe, sans la repenser.

Mais ce que nous faisons aujourd’hui — acculturation, premiers usages, exploration des cas d’usage — est indispensable. Car c’est le préalable à quelque chose de plus grand. Un socle commun. Une montée en conscience. Une respiration avant le saut.


Le mythe de la transformation technologique “par défaut”

Il y a une croyance, tenace : qu’une technologie transforme naturellement l’organisation qui l’adopte. Rien n’est plus faux. L’histoire récente nous l’a montré : ERP, CRM, cloud… tous ces outils promettaient une révolution. Ils ont souvent abouti à de la déception, voire à une complexification.

Pourquoi ? Parce que la technologie ne transforme rien si l’organisation ne veut pas être transformée.

Installer un assistant d’IA sans revoir les processus, c’est comme brancher un moteur électrique sur une vieille charrette. On gagne un peu de puissance, mais le système reste bancal.

Le vrai levier, ce n’est pas l’outil, mais le design du travail.


Ce qui se prépare : une refonte beaucoup plus profonde

Je suis convaincu d’une chose : la réorganisation viendra. Tôt ou tard. Pas uniquement parce que les outils le permettent, mais parce que les usages, les mentalités et les attentes évoluent.

Nous avançons vers un modèle où l’IA deviendra un partenaire stratégique, intégré aux flux de décision, à la gestion du temps, aux rôles des collaborateurs. Pas comme un gadget, mais comme un catalyseur de simplification, d’agilité et de réhumanisation.

Les signaux faibles sont là :

  • Des entreprises qui fusionnent IT et RH, reconnaissant que le véritable enjeu de l’IA n’est pas technique, mais humain et organisationnel.

  • Des équipes qui repensent leurs processus autour de l’IA, et non l’inverse.

  • Des réflexions qui émergent sur le travail augmenté, la décision augmentée, le management augmenté.

Dans ces modèles émergents, l’humain ne disparaît pas. Au contraire. Il reprend un rôle central : poser l’intention, formuler les objectifs, arbitrer, donner du sens.


Et si l’IA nous aidait à réinventer notre rapport au travail ?

Finalement, la véritable promesse de l’IA n’est pas de tout faire à notre place. Elle est de nous libérer de ce qui nous encombre, pour nous permettre de réinvestir ce qui compte :

  • Travailler moins mais mieux,

  • Décider plus vite et plus juste,

  • Créer, relier, transmettre,

  • Être plus utile à l’équipe, à l’entreprise, à la société.

Cette réinvention est structurelle, pas fonctionnelle. Elle interroge :

  • Le sens du travail,

  • Le rôle des managers (créateurs de contexte, non distributeurs de tâches),

  • La valeur des compétences (capacité à dialoguer, à explorer, à arbitrer dans l’ambigu),

  • La façon dont on évalue la performance, le collectif, la contribution.

Nous n’en sommes qu’au tout début de cette réflexion. Et l’IA peut, si elle est bien intégrée, accélérer cette mutation.


Les RH, bien plus que l’IT, au cœur de cette révolution

Je le dis souvent : l’IA n’est pas (seulement) un sujet pour l’IT. Elle touche au cœur même de l’organisation humaine.

Ce sont les RH qui doivent s’emparer du sujet, avec les directions générales :

  • Pour accompagner les collaborateurs,

  • Pour reconfigurer les métiers,

  • Pour repenser les rôles, les interactions, les trajectoires,

  • Pour insuffler une culture de l’expérimentation, de l’apprentissage continu.

L’IT fournit la base technique. Mais c’est l’humain qui donne la direction. Et parfois, c’est justement l’IT, prisonnière de ses cadres et de ses cycles, qui devient un frein à cette transformation.

Il est temps d’ouvrir un nouveau dialogue entre technologie, stratégie et humanité.


Comment s’y préparer concrètement ?

  1. Former, mais former autrement

    Pas des tutoriels sur “comment utiliser Copilot”, mais des parcours pour apprendre à raisonner dans l’incertitude, à formuler des intentions, à dialoguer avec une IA, à croiser les réponses.

  2. Repenser les flux de travail

    Pas seulement insérer un assistant IA dans un process existant, mais questionner : ce flux est-il encore pertinent ? Que cherche-t-on à créer ? Peut-on le simplifier, le fluidifier ?

  3. Faire émerger des équipes mixtes, hybrides, exploratoires

    RH + métiers + IT + utilisateurs. Avec un cadre clair pour tester, prototyper, ajuster.

  4. Porter une vision claire

    L’IA ne doit pas être intégrée “parce que tout le monde le fait”. Elle doit répondre à une ambition claire, lisible, enthousiasmante.

  5. Créer une culture de la discussion, de la transparence, de la confiance

    Car sans cela, l’IA génère plus de peurs que de progrès.


Conclusion – Ce que nous vivons n’est que le prologue

L’intégration actuelle de l’IA, dans nos outils, nos logiciels, nos pratiques, est une bonne nouvelle. C’est la première brique. Un passage obligé.

Mais l’ambition ne peut s’arrêter là. Ce que nous construisons aujourd’hui — en termes de culture, d’usages, de conscience — n’est que le prérequis d’une transformation plus large, plus vertueuse. Une transformation qui interrogera le sens, le rôle, la manière dont nous organisons le travail et la société.

Ce changement ne sera pas brutal. Il ne doit pas être angoissant.

Il doit être lucide, progressif, et profondément humain.

DeepSeek : entre affolement et opportunité

L’adoption massive de DeepSeek a provoqué un véritable affolement dans le monde de la technologie et de l’intelligence artificielle. La startup chinoise, éponyme, a aussi créé une onde de choc, y compris à Wall Street, grâce à son modèle d’IA performant et économique.

DeepSeek est une plateforme d'intelligence artificielle qui se distingue par son approche open source et ses performances compétitives face aux leaders du marché comme OpenAI et Google DeepMind. C'est sans aucun doute une très belle démonstration d'une victoire du modèle open source face au modèle propriétaire pour laquelle DeepSeek a profité grâce à son action.

Totalement basé en open source, DeepSeek a surpris les experts par ses capacités, égalant ou surpassant les performances des leaders du marché comme OpenAI et GPT-4. Il excelle dans des tâches complexes telles que la rédaction de code et la résolution de problèmes mathématiques difficiles.

Non seulement DeepSeek, semble avoir nécessité des couts de développement très largement inférieurs à ceux des principaux leaders du marché, mais elle devient aussi l’application la plus téléchargée dans plusieurs pays, dont le Canada, les États-Unis, la France et le Royaume-Uni à tel point qu’elle suscite aujourd’hui un affolement à Wall Street et soulève de nombreuses questions stratégiques.


Les rouages de l’innovation à bas coût

Nous avons été habitués à penser que la recherche de pointe en intelligence artificielle nécessitait des budgets pharaoniques. Les géants américains ou chinois investissent des milliards de dollars pour entraîner des modèles toujours plus puissants. Pourtant, l’idée qu’une équipe agile, avec un budget limité et une infrastructure plutôt bas de gamme, ait pu bâtir un outil d’une telle qualité suggère que les innovations de rupture peuvent émerger de petites structures, portées par des ingénieurs et des chercheurs passionnés.

Par ailleurs, les modèles de DeepSeek, tels que DeepSeek-R1 et DeepSeek-V3, sont publiés sous licence MIT, permettant à la communauté mondiale d'accéder, de modifier et d'améliorer librement le code source. Cette transparence favorise l'innovation collaborative et réduit les coûts liés aux licences propriétaires.

DeepSeek rivalise avec des modèles propriétaires comme GPT-4 grâce à des architectures avancées comme le Mixture-of-Experts (MoE), tout en nécessitant moins de ressources pour son entraînement. Par exemple, le modèle R1 aurait été développé avec seulement 2 000 GPU pour un coût de 6 millions de dollars, contre 16 000 GPU et 100 millions de dollars pour GPT-4.

DeepSeek a rapidement gagné en popularité et son approche disruptive a surpris beaucoup d'acteurs.
Ce scénario nous rappelle que la véritable compétition se joue autant sur la créativité, l’optimisation et la rapidité d’exécution que sur la seule quantité de capitaux engagés.

Dans ce cadre, les stratégies d’entraînement des modèles, la qualité et la spécificité des jeux de données, la capacité à itérer rapidement et à adapter la technologie aux besoins réels du marché peuvent expliquer des percées soudaines.

Une approche « low cost » peut donc s’avérer hautement compétitive si elle est bien pensée, surtout lorsque les équipes maîtrisent les leviers de la recherche fondamentale et du développement pratique.

Un rééquilibrage potentiellement mondial

Si DeepSeek s’impose sur différentes plateformes en Asie, en Amérique du Nord et en Europe, il ne s’agit plus d’un simple phénomène local, mais d’un acteur global capable de rivaliser, voire de surpasser, les références établies : OpenAI, Google, Meta,...

Historiquement, l’arrivée d’un concurrent inattendu peut très vite modifier les équilibres : lorsque Netflix est devenu un service mondial de streaming, ou qu’Apple a lancé l’iPhone, il ne s’agissait pas d’ajouter un simple produit sur le marché. Ces innovations ont créé un changement de paradigme, en imposant de nouveaux standards.

Le fait que DeepSeek surclasse les technologies concurrentes dans certains cas notamment liés aux tâches complexes prouverait qu’il existe d’autres voies pour atteindre l’excellence technologique. Alors que le projet Américain, StarGate, vient d’être annoncé avec un investissement à 500 milliards de dollars, communauté internationale pourrait être conduite, et plus particulièrement les géants américains, à remettre en question la pertinence de leurs modèles économiques basés sur des infrastructures gigantesques et très coûteuses.

Il convient tout de même de souligner que les investissements lourds effectués par les leaders de l’IA ne se concentrent, à priori, pas uniquement sur les innovations visibles, mais sont probablement destinés à préparer l’émergence d’IA beaucoup plus étendues.

Par ailleurs, il est indispensable de garder en mémoire que l'open-source a joué un rôle crucial. Les initiatives open-source permettent de démocratiser l’accès aux technologies avancées, favorisant ainsi une plus grande participation de divers acteurs, y compris des startups émergentes et des institutions académiques. En rendant les modèles et les outils d’IA accessibles à tous, l’open-source encourage l’innovation collaborative et réduit les barrières à l’entrée.

Un effet domino sur les marchés financiers

Ce succès éclair a engendré un climat d’incertitude, et Wall Street n'a pas tardé à réagir. Dans un contexte géopolitique et stratégique majeur, une information reste à confirmer concernant Nvidia, qui aurait fourni des GPU d'entrée de gamme à DeepSeek, contournant ainsi les restrictions d'exportation imposées par les États-Unis. Une telle révélation entraîne, au moins temporairement, une perte de confiance significative sur les marchés : non seulement en ce qui concerne la conformité des acteurs américains à leur propre législation, mais aussi quant à leur capacité à contrôler la diffusion de technologies de pointe. Les investisseurs, craignant que les GPU de gamme supérieure vantés ne soient plus aussi justifiés et redoutant d’éventuelles sanctions gouvernementales ou un durcissement réglementaire, ont fait chuter brutalement la valeur de l’entreprise impliquée (en l’occurrence, NVIDIA), aggravant ainsi la volatilité boursière.

L’investissement massif et la présence sur tous les fronts technologiques peuvent-ils à eux seuls apporter une garantie de conserver le leadership à moyen terme ?

Alors que depuis quelques jours DeepSeek a fait l’objet d’hacking et les services sont partiellement dégradés, les réactions pourraient être multiples : pressions sur les régulateurs pour protéger le marché national, alliances stratégiques ou rachats éventuels, et bien sûr un renforcement de la R&D pour ne pas se laisser distancer.

D’un point de vue global, cet épisode pourrait être perçu comme un « reset » potentiellement profitable à d’autres écosystèmes, si ces derniers s’organisent pour saisir la fenêtre d’opportunité.


Des précédents historiques

La référence à Spoutnik est riche de sens. Le lancement du premier satellite artificiel en 1957 par l’URSS a créé une onde de choc aux États-Unis, au point de motiver la création de la NASA et d’intensifier la « course à l’espace ». Cet événement a été un électrochoc : il a réveillé un sentiment d’urgence et un besoin de rattraper, voire de dépasser, l’adversaire considéré comme « en avance ».

De la même manière, découvrir qu’un nouvel acteur dispose d’une IA plus performante et moins coûteuse pousserait les gouvernements et les grands groupes américains à redoubler d’efforts, accélérant la compétition tout en élevant encore le niveau de sophistication des futures générations de modèles.

On l’a vu par le passé : certains chocs d’innovation peuvent forcer le reste du monde à remettre à plat ses priorités, à revaloriser l’importance de la recherche publique ou à réorganiser des filières stratégiques. Il ne faut pas oublier que Spoutnik, en galvanisant la recherche américaine, a fini par permettre aux États-Unis de poser le pied sur la Lune douze ans plus tard. Souvent, la crainte de se faire distancer se révèle être le meilleur moteur d’innovation.


Garder la tête froide

Dans un tel scénario, il serait tentant de céder à la panique ou, au contraire, à l’euphorie. Pourtant, les innovations technologiques suivent souvent une courbe en forme de « hype » : un pic d’excitation rapide, suivi d’une phase de désillusion, puis d’une période d’appropriation plus pragmatique.

Même si la startup chinoise montre des performances remarquables, elle devra prouver sa capacité à gérer la croissance, à répondre aux enjeux de sécurité, à maintenir la qualité de ses modèles face à l’évolution constante des besoins des utilisateurs. Par ailleurs, la dimension éthique, la gestion des données personnelles ou encore la conformité aux réglementations (différentes d’un continent à l’autre) peuvent freiner son déploiement mondial.

De leur côté, les géants établis sont rarement des cibles immobiles. Leur force de frappe financière et leur maîtrise des infrastructures leur permettent de réagir, d’optimiser rapidement leurs outils existants ou de mener des rachats stratégiques. L’histoire économique nous montre que peu de « perturbateurs » parviennent à garder une avance durable sans s’intégrer, tôt ou tard, dans un écosystème plus large.


De nouvelles opportunités, aussi en France

Cette hypothèse d’une « offre IA » révolutionnaire et à faible coût pourrait aussi profiter à d’autres marchés et d’autres acteurs, au-delà de la rivalité sino-américaine. L’Europe, et en particulier la France, pourrait y voir une opportunité de développer ou de renforcer ses propres solutions, avec un focus sur l’éthique, la gestion responsable des données et l’expertise sectorielle.

     Un regain d’intérêt pour la souveraineté technologique

Face à une nouvelle IA qui s’imposerait mondialement, la question de la souveraineté technologique deviendrait incontournable. La France et l’Europe pourraient accélérer la mise en œuvre de leur stratégie commune en matière de data, d’infrastructures et de clouds souverains. On l’a déjà vu avec le développement d’initiatives comme Gaia-X, visant à créer un cadre européen pour l’hébergement et le partage de données.

     Des collaborations internationales renforcées

La sidération provoquée par un nouvel entrant ultra-performant inciterait des entreprises françaises et européennes à se rapprocher de partenaires américains, asiatiques ou d’autres startups innovantes. Dans certains cas, de nouvelles alliances pourraient émerger pour mutualiser la R&D, partager des bibliothèques de modèles open source ou développer des standards technologiques.

     L’opportunité d’innover dans les secteurs de niche

Les PME et ETI françaises, souvent reconnues pour leur savoir-faire industriel, pourraient miser sur des créneaux précis (industrie 4.0, santé, mobilité, énergie, etc.) pour intégrer l’IA de manière différenciante. Alors qu’une nouvelle IA chinoise aborderait sans doute des marchés de masse, il existerait un espace pour des solutions spécialisées (Mistral.ai, Scaleway,…), à forte valeur ajoutée, où la France dispose d’excellentes compétences et d’un écosystème de recherche solide (Inria, CNRS, laboratoires universitaires, etc.).

     Encourager la recherche fondamentale

L’émergence d’un rival international très performant pousse souvent les institutions publiques et privées à réinvestir dans la recherche fondamentale. Pour la France, cela signifierait soutenir encore davantage les laboratoires, les jeunes chercheurs et les doctorants en IA. Un tel mouvement servirait d’argument pour attirer des talents internationaux et renforcer la compétitivité de l’écosystème local.

     Un levier de démocratisation et d’innovation

Pour la France et d’autres pays européens, s’investir dans des projets open-source pourrait non seulement stimuler l’innovation locale mais aussi favoriser des partenariats internationaux basés sur le partage de connaissances et de ressources. L’open-source peut servir de catalyseur pour développer des solutions adaptées aux besoins spécifiques des marchés locaux, tout en contribuant à un écosystème global plus résilient et diversifié.


Entre vigilance et optimisme

Ce scénario de rupture par une IA chinoise à « faible » budget illustre la nécessité pour chaque acteur – petit ou grand, français ou international – de maintenir une veille technologique active, de comprendre en profondeur l’évolution des modèles et de saisir les opportunités au moment opportun.

Il ne s’agit pas d’adopter une posture de panique face à un éventuel « Spoutnik de l’IA », mais plutôt de voir dans cette hypothèse un puissant levier pour repenser notre approche de l’innovation, évaluer nos propres forces et faiblesses, et renforcer la coopération entre acteurs publics, privés et académiques.

L’IA, comme beaucoup d’autres domaines technologiques, continuera de se transformer à une vitesse fulgurante. L’exemple de cette « startup chinoise » fictive nous rappelle que l’excellence peut surgir d’une équipe déterminée, quel que soit le budget initial, et qu’aucun monopole n’est garanti à long terme.

Entre affolement et opportunité, le choix est souvent une question de posture et de préparation. Gardons la tête froide, observons, analysons et soyons prêts à expérimenter de nouveaux outils. Les modèles actuels ne sont que des jalons dans une trajectoire qui va encore largement évoluer. Apprendre à les connaître, les tester et anticiper leurs limites fait partie du rôle de chacun, qu’il s’agisse d’entreprises, de chercheurs, de pouvoirs publics ou de simples passionnés de technologie.

En somme, un tel « Spoutnik de l’IA » offrirait des pistes d’innovation et de remise en question pour l’ensemble de l’écosystème, de la Chine à la Silicon Valley, en passant par l’Europe et la France. Restons vigilants, ouverts aux collaborations et conscients que la prochaine grande avancée pourrait émerger n’importe où, pour peu qu’une équipe de passionnés s’en donne les moyens. Le meilleur moyen de s’y préparer est de demeurer curieux, adaptable et toujours prêt à réévaluer les vérités d’hier.