Le aziende produttrici di semiconduttori dovrebbero trarne i maggiori benefici
Un altro beneficiario è il settore dei semiconduttori, che fornisce input fondamentali per elaborare calcoli complessi. Metaforicamente, queste aziende vendono picconi ai nostri gold bug. Nessuna società è più associata al computing avanzato di Nvidia, le cui unità di elaborazione grafica (GPU) sono presenti in circa l'85% dei supercomputer del mondo. Le GPU sono molto più adatte allo sviluppo di addestramento dell'AI su larga scala rispetto alle unità di elaborazione centrale (CPU), perché eseguono molti più calcoli simultaneamente. A titolo di esempio, nella sua ultima presentazione all'Investor Day, Nvidia ha stimato che le piattaforme full-stack dei suoi clienti rappresentino un'opportunità da 100 trilioni di dollari, mentre il mercato totale indirizzabile (TAM) della società è di 1 trilione di dollari. AMD è un analogo progettista di chip fabless che produce GPU, ma la sua competenza principale risiede nei chip per computer server x86. Pertanto, pur essendo un beneficiario chiave che cattura il trend dell'AI, AMD rimane meno orientata all'AI rispetto a Nvidia e mantiene un significativo segmento di business dei PC. Le CPU, a causa della loro natura più commoditizzata e dell'impatto meno prezioso, non hanno un potere di determinazione dei prezzi così forte come le GPU. Tuttavia, negli ultimi anni AMD ha dimostrato di essere un operatore formidabile e ha registrato un aumento della quota di mercato sia nei mercati finali dei PC che in quelli dell'AI, anche se partendo da una base più piccola. Ciò è dovuto in gran parte all'efficace progettazione dei chiplet, che presentano alcuni vantaggi nell'elaborazione dell'addestramento dell'AI. In definitiva, ci aspettiamo che sia Nvidia che AMD diventino degli incumbent. TSMC, in quanto importante fonderia all'avanguardia, è un partner di lunga data sia di Nvidia che di AMD ed è quindi ben posizionata per cavalcare l'onda secolare della digitalizzazione. Data la crescente intensità di capitale per ogni nodo di chip successivo, le aziende di fonderia come TSMC sono radicate e godono di un potere di determinazione dei prezzi quasi monopolistico. Ad esempio, TSMC ha speso 36 miliardi di dollari nel FY 2022 in capex e prevede di spendere un importo simile l'anno prossimo, il che rappresenta un costo di esclusione significativo per le fonderie in ritardo. La memoria DRAM è un'altra area particolarmente orientata all'AI e alla digitalizzazione. Infatti, le GPU non dispongono di memoria interna, quindi è necessario un chip DRAM per memorizzare e "alimentare" costantemente i dati che le GPU devono elaborare. Inoltre, l'intensità di capitale necessaria per costruire nuove fabbriche di memorie è aumentata drasticamente, il che ha portato a un significativo consolidamento sul lato dell'offerta. Oggi, all'interno della DRAM rimangono solo tre grandi fornitori di memorie (Samsung, Micron, SK Hynix), oltre a diverse nuove fonti di domanda guidate dall'AI. Pertanto, ci aspettiamo che il miglioramento dell'economia unitaria e la tendenza all'aumento sollevino tutte le barche.