L’IA était censée nous libérer. Elle nous a enchaînés à un nouveau rythme, plus rapide, plus exigeant, et surtout plus diffus. Depuis 2024, les études se multiplient : 77 % des utilisateurs d’outils d’IA déclarent travailler davantage, non parce qu’ils sont moins efficaces, mais parce que leur productivité a été siphonnée par des attentes toujours plus hautes. Le mythe du temps libéré s’effondre sous le poids des données. L’IA n’est pas un levier de réduction du travail, mais un multiplicateur de tâches – un phénomène que les économistes appellent le paradoxe de Jevons, appliqué cette fois à la cognition humaine. Pendant que les entreprises célèbrent les gains de productivité, les travailleurs, eux, subissent une intensification silencieuse du labeur, où chaque heure gagnée est immédiatement réinvestie dans des missions supplémentaires.
Pire : cette course effrénée ne profite pas à tous. Derrière les algorithmes se cache une armée de ghost workers, sous-payés dans le Sud global, qui maintiennent en vie les modèles que nous utilisons sans même y penser. L’IA n’a pas aboli le travail. Elle l’a réorganisé, fragmenté et rendu omniprésent – au point de brouiller les frontières entre effort et repos, création et supervision, humain et machine.
À retenir
- 77 % des utilisateurs d’IA rapportent une augmentation de leur charge de travail (Upwork, 2025), malgré des gains d’efficacité avérés.
- Le paradoxe de Jevons cognitif : plus l’IA rend les tâches faciles, plus nous en faisons – et plus vite.
- 84 % des travailleurs souffrent de fatigue cognitive ou de surmenage numérique (Forbes, 2025), lié à l’utilisation intensive de prompts et au multi-tâches parallèle.
- L’effet de siphonnage : le temps « économisé » par l’IA est immédiatement réabsorbé par l’organisation ou par des attentes accrues.
- Derrière l’IA se cache un labeur fantôme : des millions de travailleurs sous-payés (moins de 2 $/heure) dans le Sud global annotent des données et filtrent des contenus pour alimenter les modèles.
- La surveillance algorithmique augmente le stress et réduit la performance (étude Cornell, 2025) : plus on mesure, moins on produit.
- Seules 5 % des entreprises voient un retour sur investissement mesurable avec l’IA (HBS, 2025), le reste étant perdu en coordination et vérification.
- Des solutions émergent : semaine de 4 jours, pauses intentionnelles, et réinvention de la valeur (vs. quantité) pour contrer l’intensification.
L’illusion du gain de temps : quand l’IA transforme l’efficacité en piège
En 2023, une étude de Berkeley Haas a suivi 200 employés pendant huit mois, tous équipés d’outils d’automatisation cognitive. Le constat est sans appel : l’IA n’a pas réduit le temps de travail, elle l’a redéfini. Les participants gagnaient en moyenne 2 heures par jour grâce à l’automatisation des tâches répétitives, mais ces heures n’étaient pas converties en temps libre. Elles étaient siphonnées par une expansion spontanée du périmètre des tâches, souvent décidée de manière implicite par l’organisation.

Prenons l’exemple d’un chef de produit dans une scale-up parisienne. Avant l’IA, son rôle se limitait à la stratégie et à la coordination. Aujourd’hui, il code des prototypes le matin, génère des rapports avec des prompts l’après-midi et supervise les sorties d’un agent conversationnel le soir. Résultat : sa journée fait 10 heures au lieu de 8, mais personne ne parle de surcharge. On célèbre son agilité et sa polyvalence, comme si cette extension de mission allait de soi. Ce phénomène, les chercheurs l’appellent la task expansion : l’IA ne supprime pas les tâches, elle en crée de nouvelles, plus complexes et souvent invisibles.
Le mécanisme est bien connu des économistes : c’est le paradoxe de Jevons. Au XIXe siècle, l’invention de machines à vapeur plus efficaces n’a pas réduit la consommation de charbon. Elle l’a multipliée, parce que le coût marginal de l’énergie a baissé. Aujourd’hui, l’IA joue le même rôle pour notre cognition : plus elle est efficace, plus nous consommons notre propre temps. 77 % des utilisateurs d’outils comme GitHub Copilot ou Notion AI confirment cette tendance (Upwork, 2025) : ils font plus, plus vite, et souvent sans s’en rendre compte, jusqu’à banaliser des charges autrefois jugées déraisonnables.
Le plus préoccupant ? Cette accélération invisible est devenue la norme. Un développeur qui met 19 % de temps en plus à corriger du code généré par l’IA (Microsoft, 2025) ne se plaint pas d’être moins productif. Il se dit plus rigoureux, alors qu’il absorbe en silence un surplus de travail. Un marketeur qui envoie des prompts en attendant son métro ne compte pas ces minutes comme du travail. Pourtant, elles érodent ses temps de récupération – ces micro-pauses essentielles au reset attentionnel, comme le montrent les neurosciences, et sans lesquelles la performance s’effondre à moyen terme.
Le vibe coding et la disparition des pauses : quand le travail devient ambiant
L’IA a colonisé les interstices de la journée. Avant, les pauses déjeuner ou les temps morts entre deux réunions servaient à déconnecter et à laisser l’esprit divaguer. Aujourd’hui, ils sont occupés par des prompts rapides, des requêtes à un agent, ou du multi-tâches parallèle : coder manuellement tout en laissant l’IA générer des alternatives en arrière-plan. Les chercheurs parlent de travail ambiant : une activité qui n’a plus de début ni de fin, parce qu’elle s’infiltre dans chaque instant disponible, du salon au transport en commun.
Le problème est simple : notre cerveau n’est pas conçu pour ce flux continu. Une étude de l’Université de Stanford (2024) a mesuré l’impact de ces micro-interactions avec l’IA : chaque prompt envoyé ou chaque notification d’un agent déclenche une mini-rupture de concentration, comparable à celle provoquée par un e-mail ou une alerte Slack. À force, ces interruptions fragmentent l’attention et augmentent la fatigue cognitive, même lorsque la durée totale de travail semble inchangée.
Les conséquences sont lourdes : 84 % des travailleurs déclarent souffrir de digital exhaustion (Forbes, 2025), un état de surmenage numérique caractérisé par de l’irritabilité, des difficultés à se concentrer et des troubles du sommeil. Pire : cette dépendance aux prompts – parfois qualifiée de vibe coding – crée un cycle auto-entretenu. Plus on utilise l’IA pour des tâches rapides, plus on normalise l’idée que le travail doit être instantané. Résultat : les attentes de cadence grimpent, et avec elles, la pression exercée sur les équipes.
Prenons l’exemple de Claire, 32 ans, responsable produit dans une licorne française. Avant l’IA, elle passait 30 minutes par jour à rédiger des rapports. Aujourd’hui, elle en génère quatre en 15 minutes – mais son manager lui en demande désormais dix, parce que « c’est si facile ». Son temps libre n’a pas augmenté. Sa charge mentale, si.
Je me sens comme un hamster dans une roue.
Claire, responsable produit dans une licorne française
De créateur à superviseur : le nouveau fardeau de l’IA
Si l’IA devait nous libérer, pourquoi passons-nous plus de temps à la surveiller qu’à l’utiliser ? La réponse tient en un mot : le rework. Derrière chaque sortie d’IA – un code, un texte, une analyse – se cache une pollution du flux de travail, que certains experts nomment le workslop. Il s’agit de tout ce qui doit être corrigé, ajusté ou jeté parce que l’IA a produit quelque chose d’imprécis, de biaisé ou simplement inutilisable.
Prenons le cas des développeurs. Une étude de Microsoft (2025) révèle que 19 % du temps passé sur certaines tâches est désormais consacré à auditer et corriger le code généré par des outils comme Copilot. Ce n’est pas un gain de temps, mais un transfert de charge : au lieu de coder, on supervise. Au lieu de créer, on vérifie, dans un environnement où la pression de livrer plus vite rend ces contrôles encore plus éprouvants.
Ce basculement a un coût invisible : la motivation intrinsèque s’effrite. Avant, un développeur pouvait prendre du plaisir à résoudre un problème technique de bout en bout. Aujourd’hui, une partie de son énergie est aspirée par des tâches de contrôle qualité – des boucles sans fin de prompting, testing et reworking. 95 % des entreprises ne voient aucun retour sur investissement mesurable avec l’IA (HBS, 2025), parce que le temps « gagné » est in fine perdu en coordination et en vérification, noyé dans des tâches d’alignement et de validation.
Le plus troublant ? Cette crise du rework reste souvent invisible pour la hiérarchie. Un manager ne voit pas les heures passées à trier les sorties d’un agent. Il ne mesure que la quantité de livrables. Résultat : la productivité apparente augmente, mais la satisfaction et la santé des équipes s’effondrent, créant un fossé grandissant entre indicateurs et réalité du terrain.
C’est ce que vit Thomas, 40 ans, ingénieur dans une entreprise du CAC 40. Il résume son quotidien en une phrase : « Avant, je codais. Maintenant, je passe mon temps à relire ce que l’IA a écrit, à corriger ses erreurs, et à expliquer à mon N+1 pourquoi le dernier rapport généré est incomplet ». Son travail est devenu une boucle de supervision, où la valeur ajoutée humaine consiste surtout à réparer ce que la machine produit à moitié.
Mon métier, désormais, c’est relire et corriger l’IA.
Thomas, ingénieur dans une entreprise du CAC 40
L’envers du décor : le labeur fantôme qui fait tourner l’IA
Derrière les algorithmes lisses et les interfaces intuitives se cache une réalité brutale : l’IA repose sur une armée de travailleurs invisibles. Des millions de personnes, souvent dans le Sud global, passent leurs journées à annoter des données, filtrer des contenus violents ou corriger les biais des modèles. Leur salaire ? moins de 2 $ de l’heure, et une protection sociale réduite au minimum.

Ces travailleurs, surnommés ghost workers, sont les vrais rouages de l’automatisation. Sans eux, ChatGPT, Midjourney ou les assistants conversationnels des entreprises ne fonctionneraient pas. Pourtant, leur existence est soigneusement occultée dans le discours sur l’efficience de l’IA. Leur labeur est le prix caché de notre productivité, un prix payé loin des sièges sociaux qui bénéficient des bénéfices de ces systèmes.
Mais le labeur fantôme ne s’arrête pas là. Dans les entreprises occidentales, l’IA est de plus en plus utilisée pour surveiller les performances – avec des conséquences contre-productives. Une étude de l’Université de Cornell (2025) montre que la surveillance algorithmique augmente le stress et réduit la performance. Plus un employé est mesuré, plus il performe mal sur la durée, pris dans une logique de contrôle permanent qui dégrade la qualité du travail.
Prenons l’exemple d’Amazon, qui utilise des outils d’IA pour suivre la productivité de ses employés en entrepôt. Résultat ? Un taux d’absentéisme en hausse et une augmentation des erreurs, parce que les travailleurs, sous pression, négligent la qualité pour atteindre leurs objectifs chiffrés. L’IA ne libère pas : elle contrôle, et ce contrôle finit par étouffer, jusqu’à fragiliser l’organisation elle-même.
Le paradoxe est clair : plus on automatise, plus on a besoin de main-d’œuvre humaine – mais une main-d’œuvre sous-payée, stressée et souvent invisible. L’IA ne supprime pas le travail. Elle le déplace, le fragmente et le rend plus opaque, au point de dissimuler ceux qui en supportent le coût réel.
La semaine de 4 jours et les pauses intentionnelles : des pistes pour briser le cycle
Face à cette intensification silencieuse, quelques entreprises et chercheurs tentent de réinventer la pratique de l’IA. L’enjeu est de capter les gains de productivité au bénéfice des travailleurs, et non de les absorber intégralement dans de nouvelles charges. Autrement dit, faire en sorte que l’efficacité technologique se traduise en temps retrouvé, et pas seulement en livrables supplémentaires.
Une piste fait son chemin : la semaine de 4 jours. Des expériences en Islande (2019-2021) et au Royaume-Uni (2022) ont montré que réduire le temps de travail sans baisser les salaires pouvait améliorer la productivité et le bien-être. Avec l’IA, le calcul est clair : si un employé gagne 122 heures par an (soit environ 3 semaines) grâce à l’automatisation de l’administratif (estimation Google, 2025), pourquoi ne pas les convertir en temps libre plutôt qu’en réunions ou en reporting de plus ?
Mais pour que cela fonctionne, il faut changer de culture. Aujourd’hui, les gains de l’IA sont quasi systématiquement réinvestis dans plus de travail. Demain, ils devraient l’être dans plus de valeur : moins de réunions, moins de rapports, plus de réflexion stratégique et de temps de conception. « L’IA ne doit pas servir à faire plus. Elle doit servir à mieux », résume Jean-Marc Décaudin, professeur à Henley Business School, qui plaide pour des indicateurs centrés sur l’impact plutôt que sur le volume.
Une autre piste se dessine : les pauses intentionnelles. Des entreprises comme Atlassian ou Spotify expérimentent des blocs de temps dédiés à la déconnexion, où les employés sont invités à ne pas utiliser l’IA pour des tâches non essentielles. L’objectif est de rétablir des frontières entre travail et repos, et de lutter contre le travail ambiant qui s’étend en continu, jusque dans la sphère privée, en imposant des moments protégés.
Enfin, certaines voix appellent à une réappropriation souveraine du temps. Plutôt que de laisser les algorithmes dicter notre rythme, il s’agit de redéfinir nous-mêmes ce qui a de la valeur : moins d’e-mails, moins de rapports, plus de pensée profonde, de temps long et de travail réellement créatif. L’enjeu n’est pas de produire davantage, mais de reprendre la main sur ce que nous produisons, et sur le temps que nous acceptons d’y consacrer.
Reste une question, éminemment politique : sommes-nous prêts à dire non – non aux cadences dictées par les outils, non aux journées qui débordent, non à l’illusion que tout gain d’efficacité doit être immédiatement réinvesti ? Tant que cette réponse n’est pas assumée collectivement, l’IA continuera moins à alléger nos journées qu’à les densifier.

















Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.