IA : les entreprises investissent des milliards, mais cela sera-t-il rentable ?
GPT-5 vient de sortir. Si elle n’a pas spécialement brillé dans les comparatifs, cette version est une réponse économique avant d’être un exploit technique. Désormais, ChatGPT choisit automatiquement le bon effort de raisonnement. Une manière de lisser l’expérience utilisateur entre des tâches simples et d’autres plus complexes. Et, surtout, de réduire le coût unitaire de chaque requête en basculant la majorité d’entre elles vers des modèles d’intelligence artificielle plus petits, quand les limites sont atteintes. OpenAI affirme par ailleurs que GPT-5 affiche des performances comparables aux modèles de raisonnement antérieurs, avec 50 à 80 % de tokens sortants - les unités de texte que l’outil génère - en moins. Les 8 milliards de dollars de pertes prévus en 2025, rehaussés d’un milliard fin juin, doivent être contenus.
Des marges brutes très négatives
Les différents usages n’absorbent pas ces contraintes de la même façon. Chez les particuliers, le coût est explosif quand l’expérience utilisateur promet de répondre aux prompts sans garde-fous. Le segment grand public a été utile pour la distribution et l’apprentissage du produit, mais il écrase les marges si l’on n’impose pas un contrôle fin du raisonnement et du contexte. Les versions gratuites devraient donc être rationnées à l’avenir, pour contenir la facture, et celles payantes connaître une envolée des prix. Du côté des entreprises, la volonté de payer est plus élevée. C’est pour cela que les fournisseurs de modèles fondamentaux tentent de plus en plus de créer des outils dédiés, ici à la bureautique, là à la finance ou au développement informatique. Mais les poches des clients ne sont pas extensibles à l’infini.
L’exemple le plus cru de cette tension économique nouvelle se voit dans les assistants de code. TechCrunch rapporte que plusieurs outils de "vibe coding", aux croissances de revenus exceptionnelles, affichent des marges brutes très négatives. En clair, chaque utilisateur coûte plus cher à servir que ce qu’il paye. Ce n’est pas un simple effet lié à la conquête de parts de marché mais un phénomène structurel.
Le PDG de Replit, dont la société vient d’enregistrer 150 millions de dollars de revenus en douze mois, l’a confirmé dans un podcast, affirmant devoir beaucoup plus aux fournisseurs de modèles fondamentaux que ce que lui rapportent les abonnements de ses clients. Pour résumer : les pertes de Replit sont les revenus d’OpenAI et d’Anthropic. Elles sont supportées aujourd’hui par les acteurs du capital-risque mais, à la fin, il ne restera que les hausses de prix ou la dégradation du service. Le rêve serait qu’une entreprise tirant ses revenus de la publicité - Alphabet, Meta ou X - publie un modèle open source de niveau équivalent aux modèles propriétaires. Ce n’est pas la trajectoire actuelle.
Derrière ces comptes de résultat atrophiés, il y a les contrats de fourniture d’énergie, les baux des data centers, les transformateurs, les puces Nvidia, les mémoires à large bande passante, les machines lithographiques… Une chaîne de valeur complète, aujourd’hui en surchauffe. Les investissements des grands fournisseurs de cloud atteignent des sommets. Alphabet a relevé ses ambitions en 2025 à 85 milliards de dollars. Microsoft annonce une cadence trimestrielle proche de 30 milliards et anticipe un effet dilutif sur la marge de sa division cloud tant que l’infrastructure s’alourdit plus vite que les revenus. Au deuxième trimestre, la trésorerie de Meta est tombée à 12 milliards de dollars environ, contre 32 milliards fin 2024, alors même que les flux d’exploitation restent massifs.
Le risque d'un excès durable de capacité
Sur le plan historique, les grands cycles d’investissement se ressemblent. Dans les années 1840, le Royaume-Uni a englouti de l’ordre de 15 à 20 % de son PIB en quelques années dans les chemins de fer, avant une longue purge. En 1893, près d’un quart du rail américain était contrôlé par des compagnies en faillite, alors même que le trafic continuait de croître. Dans les années 1990, les opérateurs télécoms ont construit des réseaux dont une grande partie a fini bradée, avec une capacité excédentaire qui a fait chuter les prix et laminé les marges. La leçon n’est pas que l’usage disparaît, mais que le capital est détruit et que les prix s’effondrent jusqu’à ce que la demande rattrape l’offre.
Transposée à l’IA, une normalisation de la demande, liée à la fin de la subvention par les investisseurs, rendrait moins intéressant l’entraînement de nouveaux modèles, dont la progression semble déjà marquer le pas. Le matériel prévu initialement pour entraîner l’outil serait alors utilisé pour le faire fonctionner – l’inférence. Au risque de créer un excès durable de capacité.
Robin Rivaton est directeur général de Stonal et membre du conseil scientifique de la Fondation pour l’innovation politique (Fondapol)