L'IA, un test de résistance pour les marchés des technologies et des logiciels

Le développement rapide de modèles d'IA génératifs entraîne des déplacements massifs dans la chaîne de création de valeur du secteur technologique. Alors que les actions de logiciels réagissent de manière volatile, les fournisseurs d'infrastructures cloud profitent structurellement de la demande croissante de capacités de calcul. Le Dr Malte Kirchner, responsable de la division German speaking Europe de DNB Asset Management, analyse où se situent les véritables risques et opportunités du boom de l'IA.

Dr. Malte Kirchner, responsable de l'Europe germanophone, DNB Asset Management (Source : DNB Asset Management)

La dynamique de l'écosystème mondial de la technologie et de l'IA peut actuellement être décrite au mieux comme une interaction entre des investissements massifs dans les infrastructures, des changements structurels le long de la chaîne de création de valeur et une réévaluation des modèles commerciaux classiques des logiciels. La volatilité marquée de ces derniers mois - en particulier pour les actions de logiciels - n'est pas tant l'expression d'un affaiblissement des fondamentaux que le résultat d'un changement de paradigme technologique, déclenché par le développement rapide des modèles d'IA générative.

Le marché discute de plus en plus pour savoir si les modèles logiciels existants pourraient être structurellement mis sous pression par l'IA, si les marges baisseront à long terme et dans quelle mesure les valorisations actuelles sont durables. Cette incertitude a entraîné une réévaluation sensible de nombreux titres - souvent de manière globale et peu différenciée.

L'infrastructure avant la qualité du modèle : pourquoi les hyperscalers en profitent structurellement

Une constatation centrale est le découplage croissant entre la qualité des différents modèles d'IA et la rentabilité des plateformes sous-jacentes. Des entreprises comme Microsoft, Amazon ou Alphabet profitent moins du modèle d'IA qui s'impose que du fait que les modèles d'IA sont utilisés à grande échelle.

Toute application - qu'il s'agisse de recherche, de logiciels d'entreprise ou d'automatisation de processus - génère une charge de calcul. Et qui dit charge de calcul dit demande d'infrastructure cloud, de réseaux et de centres de données. Même si les prix et les marges sont sous pression au niveau des modèles, la demande structurelle de capacités d'inférence reste présente. C'est précisément pour cette raison que les grandes plates-formes de cloud computing s'avèrent avoir un positionnement robuste à court terme, malgré des investissements élevés.

L'intensité du capital comme facteur de risque dans la pile d'IA

Avec le déplacement de la création de valeur vers les infrastructures, l'attention se porte davantage sur le cycle d'investissement. Les segments à forte intensité de capital sont particulièrement sensibles aux changements de la demande. Les producteurs de GPU, les fabricants de mémoire ou les fonderies de semi-conducteurs en sont des exemples.

Des entreprises comme Nvidia ou des fournisseurs dans le segment de la mémoire haute performance ont récemment fortement profité du boom de l'IA. Parallèlement, l'augmentation des capacités accroît le risque de suroffre temporaire, si les décisions d'investissement sont retardées ou si la monétisation est plus lente que prévu. Le cycle du capital devient ainsi un déterminant central de la capacité bénéficiaire - et un facteur d'incertitude important pour les évaluations.

Convergence des modèles et pression sur les prix

Un autre moteur structurel est la convergence rapide de la qualité des modèles dans le cas des grands modèles linguistiques. Les différences de performance entre les modèles commerciaux et les alternatives open source de qualité se réduisent, tandis que les écarts de prix restent parfois considérables. Pour de nombreux utilisateurs, il ne sera guère rationnel, d'un point de vue économique, d'utiliser un modèle qui ne fournit que des résultats marginalement meilleurs, mais qui coûte plusieurs fois plus cher.

Cette évolution augmente la pression sur les fournisseurs de modèles, mais stabilise en même temps la demande en infrastructure. Les modèles peuvent devenir interchangeables, mais les capacités de calcul évolutives, l'intégration des données et les plateformes opérationnelles ne le sont pas.

Logiciels : entre peur du marché et robustesse structurelle

Le secteur des logiciels est actuellement le domaine dans lequel le sentiment du marché et la réalité fondamentale divergent le plus. De larges mouvements de vente suggèrent parfois que les logiciels sont structurellement menacés. Une analyse différenciée montre toutefois une image nettement plus hétérogène.

Les risques peuvent être grossièrement classés en trois niveaux : Les effets de l'automatisation, qui peuvent réduire le nombre d'utilisateurs humains - en premier lieu un modèle de prix, pas nécessairement une question existentielle. Génération de code assistée par l'IA, qui accélère les processus de développement, mais qui n'est pas synonyme de mise en place de systèmes robustes et conformes à la réglementation. De nouvelles architectures natives de l'IA, qui représentent le plus grand défi structurel à long terme, mais dont la mise en œuvre prend du temps.

Un système ERP comme SAP ou un logiciel d'ingénierie complexe reproduit des connaissances en matière de domaine et de réglementation qui se sont développées sur des décennies. Cette profondeur ne peut pas être remplacée à court terme par des modèles linguistiques. C'est précisément là que réside la stabilité structurelle de nombreux fournisseurs établis.

La technologie de collaboration et de réseau comme éléments stables

Les entreprises qui sont profondément intégrées dans des processus organisationnels et des réseaux physiques se montrent également robustes. Atlassian, par exemple, est un exemple de logiciel de collaboration et de processus qui reste pertinent, que le code soit écrit par des personnes ou des agents autonomes. La planification, la documentation, la coordination et la traçabilité restent des exigences centrales.

Les fournisseurs de technologies classiques comme Nokia ou Ericsson, qui ne sont guère pris en compte dans de nombreux portefeuilles technologiques, bénéficient également de tendances structurelles : une intensité concurrentielle moindre, des flux de trésorerie prévisibles et une importance croissante d'une infrastructure réseau stable dans le cadre de flux de données croissants.

Un marché entre surréaction et disruption réelle

Le secteur technologique se trouve dans une phase où les progrès technologiques progressent plus rapidement que la compréhension des marchés des capitaux. Des investissements élevés commencent à avoir un effet productif, alors que leur durabilité est en même temps remise en question. Les entreprises de logiciels sont sanctionnées en bloc, alors que seule une partie d'entre elles est effectivement structurellement menacée.

Les principaux risques ne résident pas tant dans le «si» de la révolution de l'IA que dans la «rapidité» et la «régularité» de la matérialisation de la création de valeur le long de la pile de l'IA.

Conclusion : la différenciation devient un facteur de réussite décisif

Le boom de l'IA crée des gagnants structurels évidents - en particulier là où les modèles commerciaux sont évolutifs, ancrés dans l'infrastructure et profondément intégrés dans les processus. En même temps, il oblige les investisseurs et les observateurs du marché à analyser plus précisément les chaînes de création de valeur et à évaluer les risques de manière plus différenciée.

Toutes les disruptions ne sont pas immédiates, tous les cycles ne sont pas durables. Mais là où la technologie, les données, l'infrastructure et l'organisation se combinent, le potentiel à long terme reste exceptionnel - malgré une volatilité persistante.

Plus d'informations : DNB Asset Management

(Visité 75 fois, 1 visites aujourd'hui)

Plus d'articles sur le sujet