Intelligence artificielle : quELs seront les bénéficiaires en 2026 ?

La vague de l’intelligence artificielle (IA) continue de porter les marchés boursiers, mais l’inflation des coûts d’exécution (data centers, énergie, mémoires) pourrait peser sur la profitabilité de certains géants du secteur. Christian Parisot (Altaïr Economics) analyse les risques opérationnels, l’effet sur les valorisations et les pistes de diversification à privilégier en 2026.

Une révolution technologique… et boursière, vraiment sans limite ?

Vincent Bezault : L’intelligence artificielle semble aujourd’hui inarrêtable, à la fois sur le plan technologique, économique et boursier. Beaucoup d’investisseurs estiment qu’il suffit d’être exposé à cette thématique, quitte à fermer les yeux sur le reste. Pourtant, un doute apparaît : l’inflation des coûts d’exécution ne risque-t-elle pas de compliquer sérieusement l’histoire boursière de l’IA, sans remettre en cause son adoption ?

Christian Parisot : C’est effectivement un point central. En économie, on raisonne souvent en volume, mais les entreprises raisonnent avant tout en valeur, donc en coûts et en prix. Or, ce que nous observons aujourd’hui, c’est une situation paradoxale : les carnets de commandes liés aux data centers sont extrêmement remplis, mais cette dynamique crée elle-même une forte inflation des coûts.
Les grands acteurs de l’internet ont investi massivement pour augmenter leurs capacités de calcul. Résultat : la demande est telle que les prix flambent. En un an, le prix au mètre carré des data centers a augmenté d’environ 47 %, et les projections évoquent jusqu’à 70 % l’an prochain.
Cela signifie très concrètement que 100 dollars investis aujourd’hui n’offriront demain qu’une fraction des capacités de calcul qu’ils permettaient auparavant. L’investissement reste massif en valeur, mais beaucoup moins efficace en volume. C’est là que le bât blesse.

Data Centers : Explosion des dépenses de construction et tensions économiques

Vincent Bezault : Les dépenses de construction progressent très vite en 2025. Quels effets pour l’économie et les marchés ?

Christian Parisot : Il s’agit de dépenses très concrètes : bâtiments, câblage, infrastructures lourdes. Cette activité soutient fortement la croissance américaine, au point que certains rapports expliquent que la construction de logements est freinée, faute de main-d’œuvre, détournée vers les data centers.
À court terme, c’est positif : cela génère de l’activité économique, profite à de nombreux secteurs – bien au-delà de Nvidia – et permet aux entreprises concernées de dégager des marges élevées. La bourse l’a parfaitement intégré.
Mais cette concentration a un coût. Les data centers sont massivement implantés dans certaines zones géographiques, notamment dans le sud des États-Unis, ce qui entraîne des tensions sur les ressources locales.

Christian Parisot : Ce sont des dépenses BTP tangibles (bâtiments, câblage). Aux États‑Unis, des ressources sont détournées de la construction résidentielle vers les data centers : c’est positif pour l’activité et les marges des acteurs concernés, ce que la Bourse a déjà intégré. Mais la production est concentrée géographiquement, près de la moitié des data centers étant dans le Sud des États‑Unis ; cela tensionne les infrastructures énergétiques insuffisamment dimensionnées.
 
L’énergie, talon d’Achille de l’intelligence artificielle

Vincent Bezault : Cette concentration pose aussi la question de l’énergie.
 
Christian Parisot : Absolument. Les investissements dans les data centers ont été colossaux, mais les infrastructures énergétiques n’ont pas suivi au même rythme. Résultat : des tensions sur les réseaux électriques et une inflation du prix de l’électricité.
Aux États-Unis, lorsqu’un data center s’installe à proximité, cela peut entraîner une hausse de 20 % de la facture d’électricité pour les ménages. Politiquement, cela devient sensible, surtout à l’approche des élections de mi-mandat. Les permis de construire pourraient être délivrés plus lentement, sous la pression des populations locales.
On observe donc des goulots d’étranglement, à la fois physiques et administratifs, qui ralentissent l’exécution des projets. Cela ne remet pas en cause les annonces d’investissement, mais leur rythme réel de déploiement pourrait être bien plus lent que prévu.
 
Investir plus… pour produire moins ?

Vincent Bezault : En résumé, l’inflation des coûts réduit mécaniquement la puissance de calcul obtenue à investissement constant.

Christian Parisot : Exactement. Aujourd’hui, 100 dollars investis dans un data center ne produisent plus du tout la même capacité de calcul qu’il y a un an – et probablement encore moins en 2026. C’est un point largement sous-estimé par les marchés.
 
Mémoires et semi-conducteurs : la hausse des coûts ne fait que commencer

Vincent Bezault : Nous avons beaucoup parlé des coûts de construction. Mais il faut aussi évoquer le coût des mémoires, car on voit là aussi un risque d’inflation.

Christian Parisot : C’est un point crucial, parce que l’inflation de l’IA commence à se transmettre à d’autres segments. Et c’est probablement en 2026 que cela pourrait devenir visible pour le grand public.
Aujourd’hui, des acteurs comme Nvidia ou AMD passent d’énormes commandes sur les mémoires. Or, l’un des enjeux majeurs des puces dédiées à l’IA, ce n’est pas seulement la performance de calcul : c’est la capacité à consommer le moins d’électricité possible. L’énergie devient un élément clé du coût de revient de l’IA, et sans doute le plus volatil –donc le plus dangereux.
Cette course à l’efficacité énergétique pousse à rechercher des mémoires plus performantes. Nvidia envisagerait même d’utiliser des mémoires issues du monde des smartphones, justement parce qu’elles sont rapides et sobres en énergie. L’impact potentiel est considérable : Nvidia pourrait représenter, à elle seule, un volume de consommation de mémoires équivalent à celui d’Apple pour les smartphones. Autrement dit : un choc de demande capable de déséquilibrer tout un marché.
 
La mémoire “IA” devient plus rentable… et déforme toute la chaîne

Vincent Bezault : Et cette pression se retrouve aussi sur les mémoires spécifiques à l’IA.

Christian Parisot : Oui. Les fondeurs et fabricants de mémoire produisent des mémoires dites à large bande passante, spécifiquement destinées à l’intelligence artificielle. Or, ces chaînes de production sont beaucoup plus rentables que la mémoire classique utilisée dans les PC.
Conséquence : les industriels réallouent leurs capacités. Ils transforment progressivement des lignes de production pour privilégier la mémoire destinée à l’IA. Cela maintient des prix élevés sur ces mémoires spécialisées, mais surtout, cela finit par tirer l’ensemble des prix de la mémoire vers le haut.
Le timing est d’autant plus délicat que plusieurs facteurs peuvent relancer la demande de PC : fin annoncée d’une version de Windows, besoin de renouvellement des parcs informatiques en entreprise, et retour d’un cycle d’obsolescence après plusieurs années où l’on a gardé les ordinateurs plus longtemps.
Si, au même moment, les prix des mémoires augmentent fortement, on risque d’avoir une hausse des prix des PC, et plus largement de nombreux biens électroniques : tout ce qui contient de la mémoire flash ou des composants assimilés.
En clair : l’IA agit comme un catalyseur d’inflation importée dans l’électronique grand public. Cela peut devenir un frein à la consommation de certains équipements.
 
Rentabilité des hyperscalers : le premier risque, c’est la sous-estimation comptable

Vincent Bezault : Revenons aux hyperscalers, puisqu’ils financent l’essentiel des investissements et dopent la croissance américaine. Vous évoquez même que 80 à 90 % de la croissance du premier semestre est imputable à la thématique IA. Si leurs coûts montent, n’y a-t-il pas un risque de déception sur leur rentabilité –et donc en bourse ?

Christian Parisot : Je ne parle pas d’un scénario dramatique : ils ont des montagnes de cash, ils ne vont pas faire faillite. Mais oui, il peut y avoir des révisions à la baisse de la profitabilité.
Premier point : la comptabilité. Pour limiter l’impact sur les marges, certains grands acteurs ont décidé d’amortir les puces (Nvidia et autres) sur six ans au lieu de trois ans. C’est un choix comptable, mais il pose une question très simple : est-ce crédible ?
Regardez la vitesse du progrès technologique. Google, qui fabrique ses propres puces, explique que la prochaine génération offrirait une puissance de calcul deux fois supérieure tout en consommant trois fois moins d’électricité. Cela illustre la rapidité des gains en seulement un an.
Dans ces conditions, conserver une génération de puces pendant six ans, c’est prendre le risque de ne plus être compétitif face à un acteur entrant qui déploie des puces bien plus sobres en énergie. Or, l’énergie est au cœur de la rentabilité de l’IA.
Donc amortir sur six ans peut être une illusion : à un moment, il faudra probablement passer des dépréciations ou des reprises de provisions, car l’obsolescence pourrait être beaucoup plus rapide que prévu.
 
Le vrai sujet : le coût de revient de l’IA est encore mal mesuré

Vincent Bezault : Au-delà de l’amortissement, vous pointez aussi une difficulté plus fondamentale : estimer le coût réel de déploiement.

Christian Parisot : Oui, et c’est un problème majeur. Avant de calculer un retour sur investissement, il faut déjà estimer correctement le coût de déploiement : coût des data centers, des délais, des goulets d’étranglement, des infrastructures énergétiques, des composants, des ruptures d’approvisionnement.
On a vu un exemple avec HPE : les résultats n’étaient pas mauvais sur le fond, mais le marché a sanctionné parce que les serveurs n’ont pas été livrés aussi vite que prévu. Il y a eu des ruptures, des sous-traitants pas prêts, des contrats gouvernementaux plus longs à exécuter. Cela révèle un risque de chaîne d’approvisionnement et un risque de retard.
Ce risque d’exécution, combiné à l’inflation, peut conduire à un coût de revient de l’IA bien plus élevé qu’anticipé.
Encore une fois, cela ne veut pas dire qu’il n’y aura pas d’adoption. Il peut y avoir des gains de productivité réels. Mais si le prix est plus élevé, l’adoption peut être plus lente. En économie, une règle fonctionne très bien : quand c’est plus cher, on en vend moins.
On a donc un effet volume et un effet prix. Or, l’effet prix est aujourd’hui sous-estimé, car on raisonne trop en valeur, pas assez en volume de capacité de calcul.
Et comme les valorisations boursières laissent peu de place à l’erreur, la sanction en cas de déception peut être très violente.
 
Diversifier l’exposition à l’IA : ne plus jouer “à l’aveugle”

Vincent Bezault : Dans ces conditions, faut-il revenir aux fondamentaux et diversifier, y compris à l’intérieur de la thématique IA ? Quels types d’acteurs faut-il privilégier ?

Christian Parisot : Je pense qu’on arrive à un moment où il faut diversifier l’exposition à l’IA. Jusqu’ici, beaucoup d’investisseurs se sont concentrés sur quelques grandes valeurs. Mais le risque d’exécution devient plus visible.
Si l’on croit à l’IA à long terme, il n’est pas question de sortir complètement des acteurs comme Nvidia ou Microsoft. Mais il ne faut plus être uniquement sur eux.
La grande thématique 2026, c’est d’investir davantage sur l’impact de l’IA sur le business : ceux qui vont en bénéficier via des gains de productivité. Certes, l’adoption en entreprise est plus lente que ce que la bourse souhaiterait, notamment à cause d’un point majeur : la sécurisation.
Les particuliers adoptent facilement l’IA sur smartphone. Mais une entreprise ne peut pas simplement “brancher” un modèle type ChatGPT dans ses processus sans vérifier la sécurité, former les équipes, mesurer les conséquences. Il y a aujourd’hui des problèmes importants de sécurisation. Tout cela demande du temps –et beaucoup d’accompagnement.
D’où mon idée : réduire un peu la pondération sur les hyperscalers et augmenter l’exposition aux éditeurs de logiciels, ainsi qu’aux solutions qui permettent de réduire le coût énergétique.
On peut aussi faire une branche plus spéculative vers de nouveaux systèmes, une nouvelle informatique visant à optimiser la dépense énergétique. Et éventuellement commencer à regarder IBM pour son avance dans l’informatique quantique –en gardant en tête que beaucoup de valeurs liées au quantique sont de petites capitalisations, même si des ETF permettent de s’exposer à cette thématique.
Enfin, il faut regarder les secteurs utilisateurs susceptibles de profiter : pharmacie, médias, télécoms. L’idée, c’est de ne plus jouer seulement ceux qui vendent les “pelles”, mais aussi ceux qui vont exploiter l’IA.
 
Les éditeurs de logiciels : faux perdants de l’intelligence artificielle ?

Vincent Bezault : Je voudrais vous challenger un peu, Christian, en toute amitié. Vous dites qu’il faut davantage s’exposer aux éditeurs de logiciels, mais le marché –notamment en Europe –a plutôt pris ses distances avec eux, en estimant que l’IA allait peser sur leur rentabilité. C’est une thèse à laquelle vous ne souscrivez pas.

Christian Parisot : Pas du tout. Et je pense même que c’est une erreur d’analyse assez profonde.
On a vu le même raisonnement dans la publicité, avec des groupes lourdement sanctionnés sous prétexte que l’IA allait remplacer les créatifs. C’est oublier une chose essentielle : l’idée originale reste humaine. L’IA peut produire, automatiser, accélérer, mais elle ne remplace pas la créativité, le recul, la vision.
Oui, certaines tâches peuvent être automatisées, notamment dans le code. Oui, cela peut réduire le temps nécessaire pour développer un logiciel. Mais cela ne signifie pas une destruction massive de valeur. Au contraire : cela augmente les gains de productivité.
Et surtout, on sous-estime un point clé : on ne peut pas simplement prendre un modèle d’IA, l’installer dans une entreprise, et considérer que tout est réglé. Il faut sécuriser, former, accompagner, calibrer. Tout cela génère des besoins en conseil, en formation, en intégration logicielle.
 
L’IA va-t-il réduire l’offre de travail

Vincent Bezault : Certains disent pourtant que l’IA va réduire fortement les besoins humains, notamment dans les équipes techniques.

Christian Parisot : C’est une vision très simpliste. Ce que l’on observe aujourd’hui, c’est plutôt un déplacement de la valeur. L’IA est effectivement en train de réduire certaines tâches, notamment celles traditionnellement confiées aux profils juniors. Mais dans le même temps, elle renforce le besoin de profils seniors, capables de superviser, de comprendre les risques, d’arbitrer.
Le savoir, la compétence, l’expérience deviennent encore plus valorisés. On ne peut pas déléguer à une IA des décisions stratégiques sans encadrement humain.
Et surtout, quand une entreprise intègre de l’IA dans un logiciel, elle ne le fait pas gratuitement. Elle facture ces fonctionnalités à ses clients. Ce sont des gains de productivité pour l’utilisateur final, et il est prêt à payer pour cela.
 

Adobe : du choc initial au modèle récurrent renforcé

Vincent Bezault : Vous citez souvent l’exemple d’Adobe.

Christian Parisot : Oui, c’est très instructif. Lorsqu’Adobe a intégré l’IA dans ses logiciels, il y a eu un choc initial : certaines entreprises ont réduit le nombre de licences, car l’IA permettait de faire plus avec moins de postes.
Mais ce choc a été temporaire. Aujourd’hui, Adobe vend des options IA très chères, qui sont largement souscrites par les clients. Résultat : les revenus récurrents augmentent fortement.
Ils vendent peut-être moins de licences unitaires, mais la valeur extraite par client est bien supérieure. Et sur le plan boursier, un modèle d’abonnements récurrents se valorise beaucoup mieux qu’un modèle de licences ponctuelles.
Cela illustre bien le point clé : il ne s’agit pas d’une destruction du modèle économique des éditeurs de logiciels, mais d’un changement de modèle, qui peut être très positif pour la valorisation.
 
Pharmacie, médias, télécoms : les grands bénéficiaires de la diffusion de l’IA

Vincent Bezault : Vous évoquez également des secteurs utilisateurs comme la pharmacie, les médias ou les télécoms. Comment voyez-vous concrètement leurs bénéfices ?

Christian Parisot : Dans la pharmacie, les applications sont évidentes : optimisation de la recherche, accélération des essais, meilleure sélection des molécules. Dans le domaine médical plus large, l’IA améliore déjà le diagnostic, l’analyse d’images, l’organisation des soins.
Dans les médias, les gains de productivité sont considérables. L’IA permet de réduire fortement certains coûts de production –sans entrer uniquement dans le débat sur les doublages ou les contenus automatisés. Elle permet surtout des campagnes marketing beaucoup plus ciblées.
Prenez l’exemple de Facebook : il n’a plus besoin de multiplier les cookies ou les outils de tracking complexes. L’IA observe les comportements, les analyse, et améliore le ciblage publicitaire. Cela augmente l’efficacité et la valeur des campagnes.
 
Puces sur mesure : une révolution industrielle silencieuse

Vincent Bezault : Vous évoquez aussi une évolution plus technique, mais potentiellement majeure.

Christian Parisot : Oui, celle des puces sur mesure. Historiquement, des entreprises comme Texas Instruments produisaient des puces génériques utilisées dans de multiples applications. Aujourd’hui, grâce à l’IA, on peut concevoir des designs de puces extrêmement rapidement, en quelques minutes ou quelques heures, là où il fallait auparavant des semaines ou des mois d’ingénierie.
Ces puces peuvent être adaptées à un aspirateur, une voiture, une machine-outil, une calculatrice. L’intérêt est simple : elles sont plus sobres en énergie, chauffent moins, et sont parfaitement adaptées à leur usage.
C’est une véritable révolution industrielle. Avec un ingénieur et des outils d’IA, on peut désormais concevoir des solutions sur mesure. Cela va générer beaucoup de recherche et développement, beaucoup de fonctions à forte valeur ajoutée.
Contrairement à l’idée que l’IA détruirait l’emploi qualifié, je pense qu’elle va au contraire en créer, en particulier dans la conception, l’optimisation et l’ingénierie avancée.
 
IA : une diffusion plus lente, mais un moteur durable

Vincent Bezault : En résumé, vous restez confiant sur le potentiel de long terme, même si la diffusion est plus lente.

Christian Parisot : Exactement. La diffusion sera probablement moins violente que ce que l’on a observé sur certaines valeurs comme Nvidia, mais elle restera un moteur structurel pour les prochaines années.
Il faut accepter que l’adoption prenne du temps, que les modèles économiques évoluent, que les gagnants ne soient pas forcément ceux que l’on attendait au départ. Mais l’intelligence artificielle va profondément transformer les usages, les coûts et la productivité dans de nombreux secteurs.
 

Actions/Décisions, Top Picks U.S. et Sélection Elite, voici quelques unes de nos offres qui vous aideront à bâtir un portefeuille solide dans la durée !

Retour en haut