OXFORD – When OpenAI recently committed $1.4 trillion to securing future computing capacity, it was merely the latest indication of irrational exuberance in 2025. By some estimates, US GDP growth in the first half of this year came almost entirely from data centers, prompting a flood of commentary about when the bubble will burst and what it may leave behind. While the late 1990s dot-com party ended with a hangover for Wall Street, Main Street kept what mattered: the infrastructure. Productivity rose, and the fiber laid during the boom years still works today. US President Bill Clinton’s vow to build a “bridge to the 21st century” was one of those rare campaign promises that is actually fulfilled.
Today’s AI investments could well pay off like the internet did. For now, though, the gains look more muted, and the macro downsides larger, than in the case of the dot-com bubble. Consider the potential benefits. In the late 1990s, the internet’s payoff showed up while the bubble was still inflating: US labor productivity growth averaged about 2.8% from 1995 to 2004, roughly double the previous two decades’ pace, before fading in the mid-2000s. You could see the gains in the national accounts even as Pets.com was buying up its ill-fated Super Bowl ads.
This time, US labor productivity growth has picked up after two sluggish decades – reaching around 2.7% last year – but it’s too soon to say that AI is the reason. In fact, AI adoption is slipping, with a recent US Census Bureau survey showing lower use among large firms. If the recent uptick in productivity was mostly an AI story, it could be expected to fade as adoption ebbs – another reminder of how fleeting these waves can be. As visible as the 1990s information-technology boom was in real time, it petered out within a decade or so.
It is tempting to think that large language models (LLMs) will speed up innovation and discovery itself, such as by surfacing hidden links in the academic literature, writing code, and drafting protocols. New tools – from Robert Hooke’s microscope to Galileo’s telescope – have sparked such leaps before. This time, however, we have already had the ultimate research tool in the form of the internet-connected PC. Yet even with instant access to the world’s accumulated knowledge and top talent, measures of research productivity and breakthrough innovation have declined. Keeping alive Moore’s Law – the observation that computer processing power doubles every two years – now takes orders of magnitude more researchers than it did in the early 1970s.
Nor is it clear that the current capital expenditures boom will leave much in the way of durable digital infrastructure. Like the railroads in the 19th century, the dot-com era poured money into long-lived assets – especially fiber-optic cable and backbone networks – that could be “lit” and relit as electronics improved. Much of that glass still carries traffic today. One tranche of capex supported multiple generations of technology and business models.
By contrast, AI isn’t laying track; it’s running a treadmill. Chips and memory degrade or become obsolete in the space of years, not decades. Each server rack used to train an LLM now requires 120 kilowatts of power, up from about 5-10 kW a decade ago. And though each new generation of GPUs (graphics processing units) slashes cost per watt, this means that hyperscalers churn through fleets faster as older gear becomes economically obsolete. Whereas fiber endures while you swap endpoints, the AI technology stack depreciates fast, requiring constant reinvestment.
This treadmill could be manageable if the macroeconomic picture looked like the one in 1999. But it doesn’t. Although real interest rates were higher then, Clinton-era budget surpluses and a falling debt-to-GDP ratio eased pressure on capital markets and kept the government’s interest bill smaller, limiting a crowding-out effect.
This time, the situation has been reversed. Not only have persistent US government deficits near 6% of GDP (about $1.8 trillion) and net interest payments approaching $1 trillion reduced fiscal space, but the same pool of savings is now expected to finance clean-energy build-outs, rising defense budgets, and a power-hungry data-center boom. In practice, this demand shows up as higher borrowing costs, which slow new housing construction and push long-gestation infrastructure to the back of the line.
Public finances also feel the pinch. A larger debt stock means positive real rates feed quickly into a higher interest bill, crowding out programs that households rely on. During the late-1990s surplus, debt fell and the Treasury even bought back bonds, which meant that the state could invest alongside a private boom without elbowing it aside. Today, more borrowing and a heavier interest tab leave less room for maneuver when growth slows. If AI’s payoff does arrive, but only slowly, the arithmetic will be even more difficult. We would see more dollars going to bondholders, and fewer to Social Security, health care, and core services; and if the business cycle goes south, the trade-offs would be even sharper.
Financing has changed, too. The early-2000s downturn was mostly an equity story: stock prices collapsed and venture-capital investors targeting long-term returns took a beating; but as brutal and highly visible as it was, the pain subsided relatively quickly. As Carmen Reinhart and Kenneth Rogoff emphasize in their 2009 history of financial crises, This Time Is Different, asset bubbles tend to threaten the macroeconomy mainly when they are credit-fueled and hit banks’ balance sheets. Because the dot-com bust was largely an equity repricing (telecoms aside), not a banking crisis, there was no systemic failure despite the big investor losses.
This time, risk is building through credit. As investor Paul Kedrosky notes, funding is shifting from equity to bonds, special-purpose vehicles and leases, and private credit – all forms of borrowing that ultimately link back to banks and insurers. If AI and data-center revenues fall short, the trouble will likely show up first in credit markets, not stock prices. Keep an eye out for missed coverage targets, tighter loan terms, and refinancing squeezes hitting lenders and insurers’ balance sheets through long leases and chip-backed loans.
That’s the systemic risk. Unlike the dot-com era, today’s build-out pushes exposure into the financial plumbing, so stress is likelier to spread through lenders and structured vehicles. You can already see market watchers growing concerned, with Moody’s warning that a meaningful share of Oracle’s data-center growth depends on OpenAI, which has yet to establish a path to profitability.
Of course, if AI delivers broad and sustained productivity gains quickly, the math improves. Faster growth would ease fiscal pressure, lower debt ratios, and buttress these financing structures. But if gains arrive late or fall short of expectations, the payoff might not compensate for the massive front-loaded costs.
OXFORD – Quando OpenAI ha recentemente impegnato 1,4 trilioni di dollari per garantire la futura capacità di calcolo, non è stato altro che l’ultimo segnale di un’esuberanza irrazionale nel 2025. Secondo alcune stime , la crescita del PIL statunitense nella prima metà di quest’anno è derivata quasi interamente dai data center, scatenando una valanga di commenti su quando la bolla scoppierà e cosa potrebbe lasciare. Mentre la festa delle dot-com [2] di fine anni ’90 si è conclusa con una sbornia per Wall Street, Main Street ha mantenuto ciò che contava: l’infrastruttura. La produttività è aumentata e la fibra ottica posata durante gli anni del boom funziona ancora oggi. La promessa del presidente degli Stati Uniti Bill Clinton di costruire un “ponte verso il XXI secolo” è stata una di quelle rare promesse elettorali effettivamente mantenute.
Gli investimenti odierni nell’intelligenza artificiale potrebbero dare i loro frutti, proprio come ha fatto Internet. Per ora, però, i guadagni sembrano più contenuti e gli svantaggi macroeconomici più ampi rispetto alla bolla delle dot-com. Consideriamo i potenziali benefici. Alla fine degli anni ’90, i benefici di Internet si manifestarono mentre la bolla si stava ancora gonfiando: la crescita della produttività del lavoro negli Stati Uniti si era attestata in media intorno al 2,8% dal 1995 al 2004, circa il doppio del ritmo dei due decenni precedenti, prima di affievolirsi a metà degli anni 2000. I guadagni si potevano vedere nei conti nazionali anche mentre Pets.com stava acquistando i suoi sfortunati spot del Super Bowl.
Questa volta, la crescita della produttività del lavoro negli Stati Uniti ha ripreso dopo due decenni di stagnazione, raggiungendo circa il 2,7% lo scorso anno, ma è troppo presto per dire che la causa sia l’IA. In effetti, l’adozione dell’IA sta diminuendo, con una recente indagine dell’Ufficio del censimento degli Stati Uniti che mostra un utilizzo inferiore tra le grandi aziende. Se il recente aumento della produttività è stato principalmente dovuto all’IA, ci si potrebbe aspettare che svanisca con il declino dell’adozione, un altro promemoria di quanto queste ondate possano essere fugaci. Per quanto visibile in tempo reale, il boom dell’informatica degli anni ’90 si è esaurito nel giro di circa un decennio.
È allettante pensare che i modelli linguistici di grandi dimensioni (LLM) accelereranno l’innovazione e la scoperta stessa, ad esempio facendo emergere collegamenti nascosti nella letteratura accademica, scrivendo codici e redigendo protocolli. Nuovi strumenti – dal microscopio di Robert Hooke al telescopio di Galileo – hanno già innescato simili balzi in avanti in passato. Questa volta, tuttavia, abbiamo già avuto a disposizione lo strumento di ricerca definitivo, il PC connesso a Internet. Eppure, nonostante l’accesso immediato alla conoscenza accumulata a livello mondiale e ai migliori talenti, gli indicatori di produttività della ricerca e innovazione rivoluzionaria sono diminuiti. Mantenere viva la Legge di Moore – l’osservazione secondo cui la potenza di elaborazione dei computer raddoppia ogni due anni – richiede ora ordini di grandezza in più di ricercatori rispetto ai primi anni ’70.
Né è chiaro se l’attuale boom degli investimenti in conto capitale lascerà molto in termini di infrastrutture digitali durevoli. Come le ferrovie nel XIX secolo, l’era delle dot-com ha investito denaro in asset durevoli – in particolare cavi in fibra ottica e reti dorsali – che potevano essere “illuminati” e riattivati con il progresso dell’elettronica. Gran parte di quel vetro trasporta traffico ancora oggi. Una tranche di investimenti in conto capitale ha supportato diverse generazioni di tecnologie e modelli di impresa.
Al contrario, l’intelligenza artificiale non sta tracciando binari; sta facendo funzionare un tapis roulant. Chip e memoria si degradano o diventano obsoleti nel giro di anni, non di decenni. Ogni ammasso di server utilizzato per addestrare un LLM ora richiede 120 kilowatt di potenza, rispetto ai circa 5-10 kW di dieci anni fa. E sebbene ogni nuova generazione di GPU (unità di elaborazione grafica) riduca il costo per watt, ciò significa che gli hyperscaler [3] consumano flotte più velocemente man mano che le apparecchiature più vecchie diventano economicamente obsolete. Mentre la fibra ottica resiste mentre si cambiano le utilizzazioni finali, la gran patrte delle tecnologie dell’intelligenza artificiale si deprezza rapidamente, richiedendo continui reinvestimenti.
Questa situazione potrebbe essere gestibile se il quadro macroeconomico fosse simile a quello del 1999. Ma non è così. Sebbene i tassi di interesse reali fossero più alti allora, i surplus di bilancio dell’era Clinton e il calo del rapporto debito/PIL hanno allentato la pressione sui mercati dei capitali e mantenuto la spesa pubblica per interessi più contenuta, limitando l’effetto di spiazzamento.
Questa volta, la situazione si è invertita. Non solo i persistenti deficit del governo statunitense prossimi al 6% del PIL (circa 1,8 trilioni di dollari) e i pagamenti netti di interessi prossimi a 1 trilione di dollari hanno ridotto il margine di bilancio, ma si prevede che lo stesso bacino di risparmi finanzierà ora la costruzione di impianti di energia pulita, l’aumento dei bilanci della difesa e il boom dei data center, che richiedono molta energia. In pratica, questa domanda si traduce in maggiori costi di finanziamento, che rallentano la costruzione di nuove abitazioni e relegano le infrastrutture a lunga gestazione in fondo alla lista.
Anche le finanze pubbliche risentono della crisi. Un debito pubblico più elevato significa che tassi reali positivi si traducono rapidamente in un aumento degli interessi passivi, escludendo i programmi su cui le famiglie fanno affidamento. Durante il surplus di fine anni ’90, il debito è diminuito e il Tesoro ha persino riacquistato obbligazioni, il che ha permesso allo Stato di investire parallelamente al boom privato senza ostacolarlo. Oggi, un maggiore indebitamento e un conto interessi più elevato lasciano meno margine di manovra quando la crescita rallenta. Se i frutti dell’IA dovessero arrivare, ma solo lentamente, i calcoli saranno ancora più difficili. Vedremmo più dollari andare agli obbligazionisti e meno alla previdenza sociale, all’assistenza sanitaria e ai servizi essenziali; e se il ciclo economico dovesse precipitare, i compromessi sarebbero ancora più netti.
Anche il finanziamento è cambiato. La crisi dei primi anni 2000 è stata principalmente una questione azionaria: i prezzi delle azioni sono crollati e gli investitori di venture capital che miravano a rendimenti a lungo termine hanno subito un duro colpo; ma per quanto brutale e visibile, il dolore si è attenuato relativamente in fretta. Come sottolineano Carmen Reinhart e Kenneth Rogoff nella loro storia delle crisi finanziarie del 2009, ” Questa volta è diverso” , le bolle speculative tendono a minacciare la macroeconomia soprattutto quando sono alimentate dal credito e colpiscono i bilanci delle banche. Poiché la crisi delle dot-com fu in gran parte una rivalutazione azionaria (telecomunicazioni a parte), non una crisi bancaria, non si verificò alcun fallimento sistemico nonostante le ingenti perdite degli investitori.
Questa volta, il rischio si sta accumulando attraverso il credito. Come osserva l’investitore Paul Kedrosky , i finanziamenti si stanno spostando dalle azioni alle obbligazioni, ai veicoli speciali e ai leasing, e al credito privato: tutte forme di prestito che in ultima analisi sono collegate a banche e assicurazioni. Se i ricavi derivanti dall’intelligenza artificiale e dai data center dovessero essere inferiori, il problema probabilmente si manifesterà prima nei mercati del credito, non nei prezzi delle azioni. Bisogna prestare attenzione al mancato raggiungimento degli obiettivi di copertura, alle condizioni di prestito più restrittive e alle pressioni sui rifinanziamenti che colpiscono i bilanci di istituti di credito e assicurazioni attraverso contratti di leasing a lungo termine e prestiti garantiti da semiconduttori.
Questo è il rischio sistemico. A differenza dell’era delle dot-com, l’attuale espansione spinge l’esposizione verso il sistema finanziario, quindi è più probabile che lo stress si diffonda attraverso istituti di credito e veicoli strutturati. Si può già notare una crescente preoccupazione tra gli osservatori del mercato, con Moody’s che avverte che una quota significativa della crescita dei data center di Oracle dipende da OpenAI, che deve ancora tracciare un percorso verso la redditività.
Naturalmente, se l’intelligenza artificiale genera rapidamente guadagni di produttività ampi e duraturi, i conti migliorano. Una crescita più rapida allenterebbe la pressione fiscale, ridurrebbe i rapporti di debito e rafforzerebbe queste strutture di finanziamento. Ma se i guadagni arrivano in ritardo o non raggiungono le aspettative, il ritorno potrebbe non compensare gli ingenti costi iniziali.
[1] Carl Benedikt Frey, professore associato di intelligenza artificiale e lavoro presso l’Oxford Internet Institute e direttore del programma Future of Work presso l’Oxford Martin School, è autore, più di recente, di How Progress Ends: Technology, Innovation, and the Fate of Nations (Princeton University Press, 2025).
[2] La bolla delle dot-com (o boom delle dot-com ) è stata una bolla del mercato azionario che si è gonfiata alla fine degli anni ’90 e ha raggiunto il picco venerdì 10 marzo 2000.
Durante il crollo delle dot-com , molte aziende di shopping online come Pets.com , Webvan e Boo.com , così come diverse aziende di comunicazione, come WorldCom , NorthPoint Communications e Global Crossing , fallirono e chiusero i battenti; WorldCom fu rinominata MCI Inc. nel 2003 e fu acquisita da Verizon nel 2006. Altre, come Lastminute.com , MP3.com e PeopleSound furono acquisite. Aziende più grandi come Amazon e Cisco Systems persero gran parte della loro capitalizzazione di mercato, con Cisco che perse l’80% del valore delle sue azioni.
[3] Un “hyperscaler” è un’azienda che gestisce un’enorme rete globale di centri dati e fornisce servizi di cloud computing, come Amazon, Microsoft e Google. Queste strutture sono progettate per offrire una scalabilità estrema e gestire carichi di lavoro massicci, come quelli richiesti da social media, streaming e intelligenza artificiale.
By mm
E' possibile commentare l'articolo nell'area "Commenti del Mese"