Microsoft augmente ses prix pour déplacer les coûts de l’IA générative sur les utilisateurs

Les grandes entreprises technologiques ont dépensé des milliards pour développer l’IA générative. Maintenant, elles cherchent à déplacer ces coûts sur les utilisateurs.

Mar 17, 2025 - 18:54
 0
Microsoft augmente ses prix pour déplacer les coûts de l’IA générative sur les utilisateurs

En déplaçant les coûts des grands modèles d’IA générative sur les utilisateurs, les grandes entreprises de la tech cherchent à trouver un modèle d’affaire viable.

Au delà, une stratégie consisterai à faire porter les calculs non par leurs centres de données, comme c’est le cas actuellement, mais par les ordinateurs, smartphones et autres montres connectées des utilisateurs. Un changement de fonctionnement qui ne serait pas sans conséquences.


Après avoir passé un an à intégrer l’IA générative dans ses produits phares, Microsoft tente de rentrer dans ses frais en augmentant les prix, en insérant des publicités dans les produits et en annulant les baux de centres de données. Google prend des mesures similaires, en ajoutant des fonctionnalités d’IA incontournables à son service Workspace tout en augmentant les prix.

La tendance est-elle en train de s’inverser ? Les investissements massifs des dernières années dans l’IA générative vont-ils s’amenuiser ?

La situation n’est en fait pas si simple. Les entreprises technologiques sont pleinement engagées dans le déploiement d’outils d’IA générative, mais elles cherchent encore un modèle d’affaire viable – en l’occurrence, comment faire payer les utilisateurs pour ces services.

Évolution des coûts

La semaine dernière, Microsoft a annulé sans préavis certains baux de centres de données. Cette décision fait suite à l’augmentation des prix d’abonnement à sa suite phare de logiciels, 365 – jusqu’à 45 % d’augmentation. Microsoft a également lancé des versions de certains produits désormais financées par la publicité.

Le PDG du géant de la technologie, Satya Nadella, a également suggéré récemment que l’IA n’a jusqu’à présent pas produit beaucoup de valeur.

Ces actions peuvent sembler étranges dans le contexte actuel de battage médiatique autour de l’IA, qui s’accompagne d’annonces retentissantes telles que le projet de centre de données Stargate d’OpenAI, d’une valeur de 500 milliards de dollars.

À y regarder de plus près cependant, rien dans les décisions de Microsoft n’indique un recul vis-à-vis de la technologie en elle-même. Il s’agirait plutôt d’un changement de stratégie visant à rentabiliser le développement des systèmes d’IA en répercutant les coûts de manière discrète sur les consommateurs.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le coût de l’IA générative

L’IA générative coûte cher. OpenAI, le leader du marché avec 400 millions d’utilisateurs mensuels actifs, dépense sans compter. L’année dernière, OpenAI a réalisé un chiffre d’affaires de 3,7 milliards de dollars, mais a dépensé près de 9 milliards de dollars, soit une perte nette d’environ 5 milliards de dollars.

Microsoft est le principal investisseur d’OpenAI, et fournit actuellement à l’entreprise des services de cloud computing, de sorte que les dépenses d’OpenAI coûtent également de l’argent à Microsoft.

Alors, pourquoi l’IA générative est-elle si coûteuse ? Outre la main-d’œuvre humaine, deux types de coût sont associés à ces modèles d’IA : la phase d’apprentissage (construction du modèle) et celle d’inférence (utilisation du modèle).

Si l’apprentissage représente une dépense initiale souvent importante, les coûts d’inférence augmentent avec le nombre d’utilisateurs. De surcroît, plus le modèle d’IA générative est grand, plus son exécution coûte cher.

Des alternatives plus petites et moins chères

Ainsi, une unique requête sur les modèles les plus avancés d’OpenAI peut coûter jusqu’à 1 000 dollars US, rien qu’en puissance de calcul. En janvier, le PDG d’OpenAI, Sam Altman, a déclaré que même l’abonnement de l’entreprise à 200 dollars par mois n’était pas rentable. En d’autres termes, l’entreprise perd de l’argent avec ses modèles gratuits, mais aussi avec ses modèles payants.

Photo aérienne d’un grand bâtiment industriel au milieu de champs verdoyants
Le coût croissant de l’exploitation des centres de données pour les produits d’IA générative pousse les grandes entreprises de la tech à chercher des moyens de rentrer dans leurs frais. Aerovista Luchtfotografie/Shutterstock

En pratique, l’apprentissage et l’inférence ont généralement lieu dans des centres de données. Les coûts sont élevés car les puces nécessaires à leur fonctionnement sont chères, mais c’est aussi le cas de l’électricité, des systèmes de refroidissement et de l’amortissement du matériel.

À ce jour, une grande partie des progrès en matière d’IA générative a été obtenu en visant toujours plus grand. OpenAI décrit sa dernière mise à jour comme un « modèle gigantesque et coûteux ». Néanmoins, de nombreux signes indiquent aujourd’hui que cette approche – qui consiste à faire des modèles de plus en plus grand à tout prix – pourrait même ne pas être nécessaire.

Par exemple, la société chinoise DeepSeek a fait des vagues au début de l’année en révélant qu’elle avait construit des modèles comparables aux produits phares d’OpenAI pour une infime partie du coût d’apprentissage. De même, des chercheurs de l’Allen Institute for AI (Ai2), à Seattle, et de l’université de Stanford affirment avoir entraîné un modèle pour 50 dollars seulement.

Pour résumer, il se pourrait bien que les systèmes d’IA développés et fournis par les géants de la tech ne soient pas rentables. Les coûts importants liés à la construction et à l’exploitation des centres de données sont une des raisons principales.

Que fait Microsoft ?

Après avoir investi des milliards dans l’IA générative, Microsoft tente de trouver le modèle économique qui rendra cette technologie rentable.

Au cours de l’année écoulée, le géant de la technologie a intégré le chatbot d’IA générative Copilot dans ses produits destinés aux consommateurs et aux entreprises. Et il n’est plus possible d’acheter un abonnement Microsoft 365 sans Copilot. En conséquence, les abonnés constatent des hausses de prix importantes.

Comme nous l’avons vu, exécuter les calculs nécessaires au fonctionnement des modèles d’IA générative dans les centres de données est coûteux. Il est probable que Microsoft cherche donc des moyens d’effectuer davantage ce travail directement sur les appareils des utilisateurs — ce qui déplace le coût du matériel et de son fonctionnement.

Un indice fort de cette stratégie est le petit bouton que Microsoft a commencé à mettre sur ses claviers l’année dernière, où une touche dédiée à Copilot est apparue.

Apple poursuit une stratégie similaire : la plupart des services d’IA d’Apple ne sont pas disponibles sur le cloud. Au lieu de cela, seuls les nouveaux appareils de la marque offrent des capacités d’IA. Le fait que les calculs soient effectués directement sur l’appareil commercialisé est vendu comme une fonction visant à préserver la confidentialité des données, qui n’ont pas besoin de quitter l’environnement local de l’utilisateur.

Pousser les coûts vers l’utilisateur final

Il y a des avantages à pousser le travail d’inférence de l’IA générative sur les ordinateurs, smartphones et autres montres intelligentes. Cette technique s’appelle le « edge computing », car les calculs sont faits sur les bords, à l’extrémité du réseau.

Elle peut permettre de réduire l’énergie et les ressources de calculs utilisées dans les centres de données et de diminuer le gaspillage des centres de données. Ceci a pour effet de diminuer l’empreinte carbone, thermique et hydrique de l’IA générative ; et pourrait également réduire les besoins en bande passante et accroître la confidentialité des utilisateurs.

Mais il y a aussi des inconvénients. L’edge computing transfère les coûts de calcul aux consommateurs, ce qui stimule la demande de nouveaux appareils — en dépit des préoccupations économiques et environnementales qui visent à décourager le renouvellement de nos appareils. Avec l’apparition de modèles d’IA générative plus récents et plus conséquents, cette tendance pourrait s’intensifier.

Photo des mains d’une personne triant des déchets électroniques
Effectuer les calculs d’inférence directement sur l’appareil de l’utilisateur pourrait augmenter le problème des déchets électroniques. SibFilm/Shutterstock

Et les problèmes ne s’arrêtent pas là. Quand les déchets électroniques sont répartis sur tout le territoire, plutôt que concentrés dans un centre de données, le recyclage est encore plus difficile. On peut aussi questionner un accès équitable aux outils d’intelligence artificielle, en particulier dans le domaine de l’éducation, si la qualité des calculs dépend du prix de votre smartphone.

Enfin, si l’edge computing peut sembler « décentralisée », elle peut également conduire à des monopoles commerciaux sur le matériel informatique. Dans le cas où une poignée d’entreprises seulement contrôlerait cette transition vers des IA génératives « délocalisées » sur nos appareils électroniques individuels, la décentralisation risque de ne pas être aussi ouverte qu’il y paraît.

À mesure que les coûts des infrastructures d’IA augmentent et que le développement des grands modèles évolue, une stratégie attrayante pour les entreprises d’IA est de répercuter les coûts sur les consommateurs. Mais si les grands utilisateurs, tels que les ministères et les universités, pourraient faire face à ces coûts, de nombreuses petites entreprises et consommateurs individuels pourraient avoir des difficultés.The Conversation

Kevin Witzenberger a reçu des financements du Australian Research Council.

Michael Richardson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.