Pourquoi l’IA en entreprise ne génère presque aucun ROI

·

·

Employé de bureau français observant un écran d’ordinateur rempli de tableaux de bord d’IA incomplets symbolisant seulement 2,5 % d’automatisation réussie en entreprise
Résumer cet article avec :

Le Remote Labor Index a révélé que l’IA moderne ne réussit qu’à 2,5 % des projets réels, laissant la majorité des tâches professionnelles hors d’atteinte. Ce chiffre, en décalage total avec les concours d’IA et les promesses de productivité diffusées en 2026, rebat les cartes du débat sur l’automatisation.


À retenir

  • 97,5 % des tâches professionnelles échappent encore à l’IA selon le Remote Labor Index (RLI).
  • Les fichiers corrompus et le workslop représentent 18 % des erreurs, entraînant 9 millions € de perte de productivité annuelle pour une PME de 10 000 salariés.
  • Les modèles les plus avancés (GPT‑5, Claude 4.5, Gemini 2.5 Pro, Manus 1.5) montrent un effondrement de la précision sur les tâches complexes.
  • Un 95 % des projets pilotes d’IA en entreprise ne génèrent pas de ROI positif, ce qui souligne la nécessité d’une préparation humaine rigoureuse.

En janvier 2026, l’industrie de l’automatisation se heurte à un constat brutal : les modèles d’IA ne sont pas prêts à remplacer l’humain dans la majorité des environnements de travail. Le Remote Labor Index (RLI), développé par Scale AI et le Center for AI Safety, met cette réalité en lumière en testant les systèmes les plus avancés sur des projets concrets issus d’Upwork. Cette étude bouscule l’optimisme qui a dominé le secteur et relance le débat sur les limites actuelles de l’IA.

Un indice qui secoue la promesse d’automatisation

Le RLI, publié en octobre 2025, mesure la capacité des modèles à exécuter des tâches réellement demandées par des clients humains. Sur 240 projets réels évalués, le modèle Manus 1.5 n’atteint que 2,5 % d’automatisation acceptable. Autrement dit, pour chaque centaine de demandes, seuls deux ou trois travaux satisfont les critères de qualité exigés par les plateformes professionnelles.

Analyste de données en France étudiant des tableaux de bord montrant un faible taux d’automatisation de l’IA mesuré par le Remote Labor Index
Cette photo met en scène l’analyse des résultats du Remote Labor Index, qui révèle que seulement 2,5 % des projets sont correctement automatisés tandis que la majorité du travail reste de mauvaise qualité ou inachevé.

Les chiffres du Remote Labor Index

Les données montrent une répartition déroutante : 50 % du travail produit est de mauvaise qualité et 33 % des livrables restent incomplets. Parmi les erreurs techniques, 18 % des projets concernent des fichiers corrompus ou vides, une source majeure de « workslop » qui force les employés à tout reprendre. Une entreprise de 10 000 salariés subirait ainsi une perte de productivité estimée à 9 millions € par an liée à ces corrections, comme le note Stanford University.

Une réalité éloignée des benchmarks

Les modèles testés obtiennent d’excellents scores sur des tests académiques, mais les projets du RLI révèlent un écart majeur entre les benchmarks et le travail réel. Le taux d’automatisation de 2,5 % du meilleur modèle, Manus 1.5, témoigne d’une maturité technique bien inférieure à celle suggérée par les chiffres mis en avant dans les communiqués de presse et les présentations commerciales.

Pourquoi l’IA échoue-t-elle sur le travail concret ?

La mémoire et la perception visuelle en défaillance

L’analyse qualitative du RLI met en évidence un manque critique de mémoire à long terme et une compréhension visuelle dégradée. Lors d’une création de tableau de bord pour le World Happiness Report, l’IA a ainsi produit des textes chevauchants, des données manquantes et des légendes erronées. En 3D, les objets changent de forme selon l’angle, un comportement instable que les ingénieurs qualifient de workslop persistant et qui ruine la confiance des utilisateurs finaux.

Les fichiers corrompus et le « workslop »

Un 18 % des projets étudiés contenaient des fichiers corrompus ou vides, signe que le système gère mal l’intégrité des données. À cela s’ajoutent des erreurs visuelles et des livrables inutilisables qui obligent les humains à intervenir. Ce temps passé à vérifier, corriger et relivrer crée un coût invisible que de nombreuses entreprises continuent de sous-estimer dans leurs business plans.

L’absence d’auto‑vérification et ses conséquences

Les modèles actuels ne disposent pas de mécanismes d’auto‑vérification vraiment robustes. Incapables de détecter systématiquement leurs incohérences internes, ils laissent passer des erreurs flagrantes qui arrivent directement chez le client. Cette faiblesse alimente une perte de productivité récurrente et freine l’adoption de l’IA, les utilisateurs étant contraints de repasser derrière chaque livrable.

Le paradoxe de la complexité : entre mythe et réalité

Effondrement de la précision

Une étude d’Apple, publiée en juin 2025, signale un effondrement complet de la précision sur les tâches de haute complexité. Les modèles de raisonnement (LRM) réduisent leur effort effectif lorsqu’une tâche nécessite un enchaînement logique autonome, sans aide humaine, à rebours de l’intuition selon laquelle davantage de calcul devrait produire de meilleurs résultats.

Le mirage du raisonnement par étapes

Les tests menés sur les modèles d’OpenAI, Google, Anthropic et DeepSeek montrent que, malgré leur capacité à résoudre des problèmes théoriques, ils échouent dès qu’une séquence logique stricte est exigée dans un contexte professionnel. Cette limite laisse penser que la simple accumulation de paramètres et de puissance de calcul pourrait mener à une impasse dans la quête d’AGI si l’architecture de base n’évolue pas.

Réponse des chercheurs

« Ces résultats indiquent qu’on atteint peut-être un plateau dans le développement actuel de l’IA. »
Gary Marcus, spécialiste en cognition artificielle

Pour plusieurs chercheurs, le problème ne vient donc pas uniquement de la puissance de calcul, mais surtout de la façon dont les modèles sont entraînés et évalués. Les données du RLI et de la recherche d’Apple convergent : la complexité des tâches réelles demeure, à ce stade, un obstacle majeur à une automatisation fiable et généralisée.

Impact économique et humain : la vérité du terrain

Résistance à la valeur humaine

Malgré les annonces de suppression de postes, comme les 4 000 licenciements décidés par Salesforce en septembre 2025, l’économie montre que l’IA ne remplace pas encore les travailleurs à grande échelle. Le MIT rapporte que 95 % des projets pilotes d’IA en entreprise échouent à délivrer un ROI positif, en partie à cause de la rigidité des systèmes et d’une intégration mal préparée.

Réunion en entreprise en France où un manager présente aux employés l’impact économique et humain réel de l’IA et les stratégies centrées sur la préparation humaine
L’illustration montre comment les entreprises françaises repensent l’IA non plus comme un simple outil de suppression de postes, mais comme un levier d’augmentation des capacités humaines et de productivité réelle.

La réorientation vers l’humain

En janvier 2026, les principaux décideurs mettent en avant l’idée que l’avantage stratégique repose désormais sur la « préparation humaine ». Seuls 5 % des employés utilisent aujourd’hui l’IA de façon réellement transformative, en l’intégrant dans leurs méthodes de travail quotidiennes. La priorité devient alors de former, d’accompagner et d’impliquer les équipes plutôt que de promettre des gains automatiques.

Perspective d’augmentation de capacités

Les entreprises qui positionnent l’IA comme un outil d’assistance, plutôt que comme un substitut direct, constatent les premiers gains tangibles de productivité. L’IA y prend en charge des tâches répétitives ou préparatoires, tandis que les décisions clés restent humaines, ce qui réduit le risque d’erreurs critiques.

Combinée à un management clair et à des processus adaptés, cette augmentation ciblée des capacités humaines apparaît, en 2026, comme la stratégie la plus crédible pour tirer parti de l’IA sans dégrader la qualité du travail ni la confiance des salariés.



Sur le même Thème :

Laisser un commentaire