Tecnologia

Altro che «effetto DeepSeek»: le Big Tech investiranno ancora di più nell'IA

La vicenda della startup cinese non intacca i piani d’investimento dei colossi americani del settore che intendono addirittura incrementarli
©Gabriele Putzu
Dimitri Loringett
07.02.2025 22:30

«Il paradosso di Jevons colpisce ancora! Man mano che l’intelligenza artificiale diventa più efficiente e accessibile, il suo utilizzo salirà alle stelle, trasformandosi in un bene di cui non potremo più fare a meno». Sono le parole del CEO di Microsoft, Satya Nadella, pubblicate su X lo scorso 27 gennaio, giorno in cui il lancio di DeepSeek ha provocato un «mini lunedì nero» sulle Borse mondiali, sollevando molti interrogativi sugli enormi investimenti effettuati nelle tecnologie e sistemi legati all’IA. Da allora, i titoli tecnologici sono rimbalzati, i mercati europei hanno toccato nuovi massimi (da inizio anno l’indice paneuropeo Stoxx 600 è salito dell’8%) e una teoria economica del XIX secolo è improvvisamente sulla bocca di tutti.

Ma che cos’è, innanzitutto, il paradosso di Jevons? Il nuovo «buzzword» diffusosi fra gli analisti economico-finanziari prende il nome dall’economista inglese William Stanley Jevons, che in una sua pubblicazione del 1865 ha proposto la tesi secondo cui quando una risorsa diventa più efficiente da utilizzare, la domanda può aumentare, anziché diminuire, perché il prezzo per l’utilizzo della risorsa diminuisce.

Nel caso dell’IA, il paradosso di Jevons evidenzia non tanto il suo futuro utilizzo, bensì l’incertezza relativa alla futura richiesta di data centre e fornitura di servizi annessi, tra cui anche l’energia per farli funzionare. Incertezza che, per ora, non sembra concernere quattro dei «Magnifici 7», Microsoft, Alphabet, Amazon e Meta: dopo aver riportato nel 2024 una spesa in conto capitale combinata di 246 miliardi di dollari, queste società prevedono nel 2025 di spenderne altri 320 miliardi, principalmente nella costruzione di centri dati, che saranno poi riempiti con cluster di microprocessori specializzati per rimanere all’avanguardia nella ricerca di modelli di linguaggio di grandi dimensioni (LLM) per l’IA.

Ma andando oltre il clamore per l’IA, gli azionisti di queste e altre società big tech temono che gli enormi investimenti senza un aumento commisurato dei ricavi possa intaccare il capitale che altrimenti verrebbe restituito sotto forma di riacquisti di azioni e dividendi, «impoverendo» al contempo le aree di business non legate all’IA.

Sproporzione tra costi e ricavi

Viene da chiedersi, allora, se la tesi formulata da Jevons trova conferma nel contesto dell’IA. «Sì e no», risponde al CdT Roberto Malnati, analista finanziario presso Royalfid a Savosa. «La storia di DeepSeek - spiega - è simile a quella di tutte le rivoluzioni tecnologiche, quando al verificarsi dell’espansione del mercato degli utenti è seguita la riduzione dei costi. Pensiamo per esempio al trasporto aereo, inizialmente riservato alle persone ricche che se lo potevano permettere e oggi alla portata di tutti. Tuttavia, la rivoluzione dell’IA in senso lato presenta un’eccezione alla regola: quando OpenAI ha lanciato ChatGPT a fine novembre 2022, l’intero mondo (o quasi) lo ha potuto usare, immediatamente, scardinando di fatto il classico paradigma della diffusione progressiva di una nuova tecnologia. Nessun’altra innovazione tecnologica ha infatti avuto una diffusione così rapida, quasi istantanea direi».

Il punto centrale della questione è quindi relativo al rapporto costi-ricavi, con i secondi che ammontano ancora ad appena una frazione dei primi. Inoltre, una parte significativa dei costi, oltre a quelli infrastrutturali ed energetici, è generato dalle attività di «addestramento» dei LLM. Costi che queste aziende dovrebbero riuscire in qualche modo a riversare sugli utenti.

E poi è arrivato DeepSeek che con una manciata di milioni - e non miliardi - di dollari è riuscito a fare (quasi) meglio dei primi della classe, segnatamente OpenAI, segnando una svolta definita epocale che apre verosimilmente la porta a ulteriori sviluppi «low cost» - e utilizzi gratuiti - di queste tecnologie. «L’industria dell’IA - osserva Malnati - presenta due anomalie rispetto ad altre: i costi sono indipendenti dai ricavi e non c’è nessuna garanzia che, ormai esauriti quasi tutti i dati (di qualità) sulla Terra, ce ne siano ancora da “addestrare” o che i nuovi addestramenti portino dei sostanziali miglioramenti ai LLM». Il nostro interlocutore accenna al principio di Pareto (anch’esso risalente a fine Ottocento), che afferma che circa il 20% delle cause provoca l’80% degli effetti. «Nel settore dell’IA - spiega l’analista - con il 20% dei costi si crea l’80% del prodotto, ma il restante 20% di miglioramento richiede l’80% di costi».

Guardando al prossimo futuro e davanti alle enormi cifre (ancora) in ballo, la domanda da porsi è se il mercato sarà disposto a pagare quello che le aziende stanno investendo in maniera così sostanziale, specie se considera una prospettiva, sempre più concreta, di «commoditisation» dell’IA. «Banalmente, le aziende con il rapporto tra costi e ricavi più favorevole sono quelle che resisteranno, non si scappa», sostiene Roberto Malnati. «Ma il mercato - aggiunge - non è mai tutto bianco o nero, bensì a varie tinte di grigio. Dell’IA non possiamo più fare a meno, è ubiquo e non si torna indietro di certo. Si tratta ora di trovare un equilibrio fra costi e ricavi, un processo che passerà per forza dal ridimensionamento della hype che si è vissuto sull’IA nell’ultimo lustro. Non sono tanto preoccupato per le aziende di software, tipo Microsoft o Google, quanto piuttosto per i fornitori delle infrastrutture e servizi annessi, penso per esempio a Nvidia, che si sono fatti pagare davvero molto per soddisfare l’urgenza dettata dall’avvento di ChatGPT e, ora, forse anche dai nuovi concorrenti come DeepSeek» conclude l’analista di Royalfid.