Les entreprises de semi-conducteurs devraient en bénéficier le plus
Un autre bénéficiaire est le secteur des semi-conducteurs, qui fournit des données essentielles pour effectuer des calculs complexes ; en fait, ces entreprises vendent des pioches à nos chercheurs d’or. Aucune entreprise n’est plus associée à l’informatique de pointe que Nvidia, dont les unités de traitement graphique (GPU selon ses sigles en anglais) sont présentes dans environ 85 % des superordinateurs du monde. Par rapport aux unités centrales de traitement (CPU selon ses sigles en anglais), les GPU sont bien adaptées au développement de la formation à l’IA à grande échelle, car elles effectuent beaucoup plus de calculs simultanément. À titre d’exemple, lors de sa dernière présentation à la journée des investisseurs, Nvidia a estimé que les plateformes complètes de ses clients représentaient une opportunité de 100 billions de dollars, le marché total adressable (TAM selon ses sigles en anglais) de l’entreprise étant de 1 billion de dollars. AMD est un concepteur de puces sans usine similaire qui produit des GPU, mais son expertise principale réside dans les puces pour serveurs informatiques de CPU x86. Par conséquent, si AMD est un bénéficiaire clé de la tendance à l’IA, elle reste moins orientée vers l’IA que Nvidia et conserve un secteur d’activité important des PC. Les CPU, en raison de leur nature plus banalisée et de leur impact moins important, n’ont pas un pouvoir de fixation des prix aussi fort que les GPU. Pourtant, ces dernières années, AMD s’est révélée être un opérateur redoutable et a vu sa part de marché s’accroître sur les marchés finaux des PC et de l’IA, bien qu’à partir d’une plus petite base. Cela est dû en grande partie à l’efficacité de ses chiplets, qui présentent certains avantages en matière de traitement de la formation à l’IA. Finalement, nous nous attendons à ce que Nvidia et AMD deviennent des opérateurs historiques. TSMC, en tant qu’importante fonderie de pointe, est un partenaire de longue date de Nvidia et d’AMD et est donc bien placée pour surfer sur la vague séculaire de la numérisation. Compte tenu de l’augmentation de l’intensité capitalistique pour chaque nœud de puce successif, les entreprises de fonderie telles que TSMC sont bien implantées et jouissent d’un pouvoir de fixation de prix quasi monopolistique. Par exemple, TSMC a investi 36 milliards de dollars au cours de l’exercice 2022 et prévoit de dépenser un montant similaire l’année prochaine, ce qui représente un coût d’exclusion important pour les fonderies qui suivent. La mémoire DRAM est un autre domaine particulièrement orienté vers l’IA et la numérisation. En effet, les GPU n’ont pas de mémoire interne, une puce DRAM est ainsi nécessaire pour stocker et « alimenter » en permanence les données à traiter par les GPU. En outre, l’intensité capitalistique requise pour construire de nouvelles fabriques de mémoire a également considérablement augmenté, ce qui a entraîné une consolidation significative du côté de l’offre. Aujourd’hui, seuls trois grands fournisseurs de mémoire (Samsung, Micron, SK Hynix) subsistent au sein de la DRAM aux côtés de plusieurs nouvelles sources de demande menées par l’IA. Par conséquent, nous nous attendons à ce que l’amélioration des économies unitaires et une tendance à la hausse profitent à tout le monde.