Altri Economisti » Project Syndicate » Saggi, articoli su riviste. Krugman ed altri » Selezione del Mese

Alla ricerca dei fondamenti economici della bolla dell’intelligenza artificiale, di WILLIAM H. JANEWAY (da Project Syndicate, 7 novembre 2025)

 

Nov 7, 2025

In Search of the AI Bubble’s Economic Fundamentals

William H. Janeway

 

zz 888CAMBRIDGE – In recent weeks, the notion that we are witnessing an “AI Bubble” has moved from the fringes of public debate to the mainstream. As Financial Times commentator Katie Martin aptly put it, “Bubble-talk is breaking out everywhere.”

The debate is fueled by a surge of investment in data centers and in the vast energy infrastructure required to train and operate the large language models (LLMs) that drive generative AI. As with previous speculative bubbles, rising investment volumes fuel soaring valuations, with both reaching historic highs across public and private markets. The so-called “Magnificent Seven” tech giants – Alphabet, Amazon, Apple, Meta, Microsoft, Nvidia, and Tesla – dominate the S&P 500, with each boasting a market capitalization above $1 trillion, and Nvidia is now the world’s first $5 trillion company.

In the private market, OpenAI reportedly plans to raise $30 billion at a $500 billion valuation from SoftBank, the most exuberant investor of the post-2008 era. Notably, this fundraising round comes even as the company’s losses totaled $5 billion in 2024 despite $3.7 billion in revenue with its cash burn expected to total $115 billion through 2029.

Much like previous speculative cycles, this one is marked by the emergence of creative financing mechanisms. Four centuries ago, the Dutch Tulip Mania gave rise to futures contracts on flower bulbs. The 2008 global financial crisis was fueled by exotic derivatives such as synthetic collateralized debt obligations and credit default swaps. Today, a similar dynamic is playing out in the circular financing loop that links chipmakers (Nvidia, AMD), cloud providers (Microsoft, CoreWeave, Oracle), and LLM developers like OpenAI.

While the contours of an AI bubble are hard to miss, its actual impact will depend on whether it spills over from financial markets into the broader economy. How – and whether – that shift will occur remains unclear. Virtually every day brings announcements of new multibillion-dollar AI infrastructure projects. At the same time, a growing body of reports indicates that AI’s business applications are delivering disappointing returns, indicating that the hype may be running well ahead of reality.

The Ghosts of Bubbles Past

Financial bubbles can be understood in terms of their focus and locus. The first concerns what investors are betting on: Do the assets that attract speculation have the potential to boost economic productivity when deployed at scale? Second, is this activity concentrated primarily in equity or credit markets? It is debt-financed speculation that leads to economic disaster when a bubble inevitably bursts. As Moritz Schularick and Alan M. Taylor have shown, leverage-fueled bubbles have repeatedly triggered financial crises over the past century and a half.

The credit bubble of 2004-07, which focused on real estate and culminated in the global financial crisis of 2008-09, is a case in point. It offered no promise of increased productivity, and when it burst, the economic consequences were horrendous, prompting unprecedented public underwriting of private losses, principally by the US Federal Reserve.

By contrast, the focus of the tech bubble of the late 1990s was on building the internet’s physical and logical infrastructure on a global scale, accompanied by the first wave of experiments in commercial applications. Speculation during this period was mainly concentrated in public equity markets, with some spillover into the market for tradable junk bonds, and overall leverage remained limited. When the bubble burst, the resulting economic damage was relatively modest and was easily contained through conventional monetary policy.

The history of modern capitalism has been defined by a succession of such “productive bubbles.” From railroads to electrification to the internet, waves of financial speculation have repeatedly mobilized vast quantities of capital to fund potentially transformational technologies whose returns could not be known in advance.

In each of these cases, the companies that built the foundational infrastructure went bust. Speculative funding had enabled them to build years before trial-and-error experimentation yielded economically productive applications. Yet no one tore up the railroad tracks, dismantled the electricity grids, or dug up the underground fiber-optic cables. The infrastructure remained, ready to support the creation of the imagined “new economy,” albeit only after a painful delay and largely with new players at the helm. The experimentation needed to discover the “killer applications” enabled by these “General Purpose Technologies” takes time. Those seeking instant gratification from LLMs are likely to be disappointed.

For example, while construction of the first railroad in the United States began in 1828, mail-order retail, the killer app in this instance, began with the founding of Montgomery Ward in 1872. Ten years later, Thomas Edison introduced the Age of Electricity by turning on the Pearl Street power station, but the productivity revolution in manufacturing caused by electrification only came in the 1930s. Similarly, it took a generation to get from the Otto internal combustion engine, invented in 1876, to Henry Ford’s Model T in 1908, and from Jack Kilby’s integrated circuit (1958) to the IBM PC (1981). The first demonstration of the proto-internet was in 1972: Amazon and Google were founded in 1994 and 1998, respectively.

Where does the AI bubble fit on this spectrum? While much of the investment so far has come from Big Tech’s vast cash reserves and continued cash flow, signs of leverage are beginning to emerge. For example, Oracle, a late entrant to the race, is compensating for its relatively limited liquidity with a debt package of about $38 billion.

And that may be only the beginning. OpenAI has announced plans to invest at least $1 trillion over the next five years. Given that spending of this scale will inevitably require large-scale borrowing, LLMs have a narrow window to prove their economic value and justify such extraordinary levels of investment.

Early studies offered reason for optimism. Research by Stanford’s Erik Brynjolfsson and MIT’s Danielle Li and Lindsey Raymond, examining the introduction of generative AI in customer-service centers, found that AI assistance increased worker productivity by 15%. The biggest gains were among less experienced employees, whose productivity rose by more than 30%.

Brynjolfsson and his co-authors also observed that employees who followed AI recommendations became more efficient over time, and that exposure to AI tools led to lasting skill improvements. Moreover, customers treated AI-assisted agents more positively, showing higher satisfaction and making fewer requests to speak with a supervisor.

The broader picture, however, appears less encouraging. A recent survey by MIT’s Project NANDA found that 95% of private-sector generative AI pilot projects are failing. Although less rigorous than Brynjolfsson’s peer-reviewed study, the survey suggests that most corporate experiments with generative AI have fallen short of expectations. The researchers attributed these failures to a “learning gap” between the few firms that obtained expert help in tailoring applications to practical business needs – chiefly back-office administrative tasks – and those that tried to develop in-house systems for outward-facing functions such as sales and marketing.

The Limits of Generative AI

The main challenge facing generative AI users stems from the nature of the technology itself. By design, GenAI systems transform their training data – text, images, and speech – into numerical vectors which, in turn, are analyzed to predict the next token: syllable, pixel, or sound. Since they are essentially probabilistic prediction engines, they inevitably make random errors.

Earlier this year, the late Brian Cantwell Smith, former chief scientist at Xerox’s legendary Palo Alto Research Center, succinctly described the problem. As quoted to me by University of Edinburgh Professor Henry Thompson, Smith observed: “It’s not good that [ChatGPT] says things that are wrong, but what is really, irremediably bad is that it has no idea that there is a world about which it is mistaken.”

The inevitable result is errors of different sorts, the most damaging of which are “hallucinations” – statements that sound plausible but describe things that don’t actually exist. This is where context becomes critical: in business settings, tolerance for error is already low and approaches zero when the stakes are high.

Code generation is a prime example. Software used in financially or operationally sensitive environments must be rigorously tested, edited, and debugged. A junior programmer equipped with generative AI can produce code with remarkable speed. But that output still requires careful review by senior engineers. As numerous anecdotes circulating online suggest, any productivity gained at the front end can disappear once the resources needed for testing and oversight are taken into account. The Bulwark’s Jonathan Last put it well:

“AI is like Chinese machine production. It can create good outputs at an incredibly cheap price (measuring here in the cost of human time). Which means that AI – as it exists today – is a useful tool, but only for tasks that have a high tolerance for errors … if I asked ChatGPT to research a topic for me and I incorporated that research into a piece I was writing and it was only 90 percent correct, then we have a problem. Because my written product has a low tolerance for errors.”

In her new book The Measure of Progress, University of Cambridge economist Diane Coyle highlights another major concern: AI’s opacity. “When it comes to AI,” she recently wrote, “some of the most basic facts are missing or incomplete. For example, how many companies are using generative AI, and in which sectors? What are they using it for? How are AI tools being applied in areas such as marketing, logistics, or customer service? Which firms are deploying AI agents, and who is actually using them?”

The Inevitable Reckoning

This brings us to the central question: What is the value-creating potential of LLMs? Their insatiable appetite for computing power and electricity, together with their dependence on costly oversight and error correction, makes profitability uncertain. Will business customers generate enough profitable revenue to justify the required investment in infrastructure and human support? And if several LLMs perform at roughly the same level, will their outputs become commodified, reducing token production to a low-margin business?

From railroads to electrification to digital platforms, massive upfront investment has always been required to deliver the first unit of service, while the marginal cost of each additional unit rapidly declined, often falling below the average cost needed to recover the initial investment. Under competitive conditions, prices tend to gravitate toward marginal cost, leaving all competitors operating at a loss. The result, time and again, has been regulated monopolies, cartels, or other “conspiracies in restraint of trade,” to borrow the language of the Sherman Antitrust Act.

There are two distinct alternatives to enterprise-level LLM deployment. One lies in developing small language models – systems trained on carefully curated datasets for specific, well-defined tasks. Large institutions, such as JPMorgan or government agencies, could build their own vertical applications, tailored to their needs, thereby reducing the risk of hallucinations and lowering oversight costs.

The other alternative is the consumer market, where AI providers compete for attention and advertising revenue with the established social-media platforms. In this domain, where value is often measured in entertainment and engagement, anything goes. ChatGPT reportedly has 800 million “weekly active users” – twice as many as it had in February. OpenAI appears poised to follow up with an LLM-augmented web browser, ChatGPT Atlas.

But given that Google’s and Apple’s browsers are free and already integrate AI assistants, it is unclear whether OpenAI can sustain a viable subscription or pay-per-token revenue model that justifies its massive investments. Various estimates suggest that only about 11 million users – roughly 1.5% of the total – currently pay for ChatGPT in any form. So, consumer-focused LLMs may be condemned to bid for advertising revenue in an already-mature market.

The outcome of this ongoing horse race is impossible to call. Will LLMs eventually generate positive cash flow and cover the energy costs of operating them at scale? Or will the still-nascent AI industry fragment into a patchwork of specialized, niche providers while the largest companies compete with established social-media platforms, including those owned by their corporate investors? As and when markets recognize that the industry is splintering rather than consolidating, the AI bubble will be over.

Ironically, an earlier reckoning might benefit the broader ecosystem, though it would be painful for those who bought in at the peak. Such a deflation could prevent many of today’s ambitious data-center projects from becoming stranded assets, akin to the unused railroad tracks and dark fibers left behind by past bubbles. In financial terms, it would also preempt a wave of high-risk borrowing that might end in yet another leveraged bubble and crash.

Most likely, a truly productive bubble will emerge only years after today’s speculative frenzy has cooled. As the Gartner Hype Cycle makes clear, a “trough of disillusionment” precedes the “plateau of productivity.” Timing may not be everything in life, but for investment returns it pretty well is.

 

Alla ricerca dei fondamenti economici della bolla dell’intelligenza artificiale

William H. Janeway

 

CAMBRIDGE – Nelle ultime settimane, l’idea secondo la quale stiamo assistendo a una “bolla dell’intelligenza artificiale” è passata dai margini del dibattito alla scena principale. Come ha giustamente affermato Katie Martin, commentatrice del Financial Times , “Le chiacchiere sulla bolla stanno esplodendo ovunque”.

Il dibattito è alimentato da un’ondata di investimenti nei data center e nella vasta infrastruttura energetica necessaria per addestrare e gestire i modelli linguistici di grandi dimensioni (LLM) che guidano l’intelligenza artificiale generativa. Come nelle precedenti bolle speculative, l’aumento dei volumi di investimento alimenta valutazioni in forte crescita, con entrambi i mercati che raggiungono massimi storici sia pubblici che privati. I cosiddetti “Magnifici Sette” giganti della tecnologia – Alphabet, Amazon, Apple, Meta, Microsoft, Nvidia e Tesla – dominano l’S&P 500 , con una capitalizzazione di mercato superiore a 1.000 miliardi di dollari ciascuno, e Nvidia è ora la prima azienda al mondo con una capitalizzazione di mercato di 5.000 miliardi di dollari .

Nel mercato privato, OpenAI prevede di raccogliere 30 miliardi di dollari con una valutazione di 500 miliardi di dollari da SoftBank, l’investitore più esuberante dell’era post-2008. In particolare, questo giro di raccolta fondi avviene nonostante le perdite dell’azienda abbiano totalizzato 5 miliardi di dollari nel 2024, nonostante un fatturato di 3,7 miliardi di dollari, con un consumo di cassa previsto di 115 miliardi di dollari entro il 2029.

Come i precedenti cicli speculativi, anche questo è caratterizzato dall’emergere di meccanismi di finanziamento creativi. Quattro secoli fa, la Tulipanomania olandese diede origine ai contratti futures sui bulbi da fiore. La crisi finanziaria globale del 2008 fu alimentata da derivati ​​esotici come le obbligazioni sintetiche garantite da debito (CFI) e gli scambi sui rischi di credito (CDS). Oggi, una dinamica simile si sta verificando nel ciclo di finanziamento circolare che collega i produttori di chip (Nvidia, AMD), i fornitori di servizi cloud (Microsoft, CoreWeave, Oracle) e gli sviluppatori di LLM come OpenAI.

Sebbene i contorni di una bolla di intelligenza artificiale siano difficili da ignorare, il suo impatto effettivo dipenderà dalla sua possibile propagazione dai mercati finanziari all’economia in generale. Come – e se – questo cambiamento avverrà rimane poco chiaro. Praticamente ogni giorno vengono annunciati nuovi progetti infrastrutturali di intelligenza artificiale multimiliardari. Allo stesso tempo, un numero crescente di report indica che le applicazioni aziendali dell’intelligenza artificiale stanno producendo rendimenti deludenti, il che indica che l’entusiasmo potrebbe essere ben più forte della realtà.

I fantasmi delle bolle passate

Le bolle finanziarie possono essere comprese in termini di concentrazione e di localizzazione. Il primo riguarda le scommesse degli investitori: gli asset che attraggono la speculazione hanno il potenziale per aumentare la produttività economica se impiegati su larga scala? In secondo luogo, questa attività si concentra principalmente sui mercati azionari o del credito? Quando una bolla inevitabilmente scoppia, è la speculazione finanziata dal debito che porta al disastro economico. Come hanno dimostrato Moritz Schularick e Alan M. Taylor , le bolle alimentate dalla leva finanziaria hanno ripetutamente innescato crisi finanziarie nell’ultimo secolo e mezzo.

La bolla del credito del 2004-2007, che si concentrò nel settore immobiliare e culminò nella crisi finanziaria globale del 2008-2009, ne è un esempio lampante. Non offriva alcuna promessa di aumento della produttività e, quando scoppiò, le conseguenze economiche furono orribili, spingendo il settore pubblico a sottoscrivere perdite private senza precedenti, principalmente da parte della Federal Reserve statunitense.

Al contrario, la bolla tecnologica della fine degli anni Novanta si concentrò sulla costruzione dell’infrastruttura fisica e razionale di Internet su scala globale, accompagnata dalla prima ondata di esperimenti di applicazioni commerciali. La speculazione in questo periodo si concentrò principalmente sui mercati azionari quotati, con qualche ricaduta sul mercato dei titoli spazzatura negoziabili, e la leva finanziaria complessiva rimase limitata. Quando la bolla scoppiò, il danno economico che ne derivò fu relativamente modesto e fu facilmente contenuto attraverso la politica monetaria convenzionale.

La storia del capitalismo moderno è stata caratterizzata da una serie di ” bolle produttive “. Dalle ferrovie all’elettrificazione fino a Internet, ondate di speculazione finanziaria hanno ripetutamente mobilitato enormi quantità di capitale per finanziare tecnologie potenzialmente rivoluzionarie, i cui rendimenti non potevano essere previsti in anticipo.

In ognuno di questi casi, le aziende che avevano costruito l’infrastruttura fondamentale fallirono . Finanziamenti speculativi avevano permesso loro di costruire anni prima che la sperimentazione per tentativi ed errori producesse applicazioni economicamente produttive. Senonché nessuno aveva distrutto i binari ferroviari, smantellato le reti elettriche o scavato i cavi in ​​fibra ottica sotterranei. L’infrastruttura rimase, pronta a supportare la creazione della “nuova economia” immaginata, anche se solo con un ritardo doloroso e in gran parte con nuovi attori al timone. La sperimentazione necessaria per scoprire le “applicazioni killer” abilitate da queste “tecnologie per scopi generali” richiede tempo. Chi cerca una gratificazione immediata dagli LLM rischia di rimanere deluso.

Ad esempio, mentre la costruzione della prima ferrovia negli Stati Uniti iniziò nel 1828, la vendita al dettaglio per corrispondenza, l’applicazione vincente in questo caso, iniziò con la fondazione di Montgomery Ward nel 1872. Dieci anni dopo, Thomas Edison inaugurò l’era dell’elettricità attivando la centrale elettrica di Pearl Street, ma la rivoluzione della produttività nel settore manifatturiero causata dall’elettrificazione arrivò solo negli anni ’30. Allo stesso modo, ci volle una generazione per passare dal motore a combustione interna Otto [1], inventato nel 1876, al Modello T di Henry Ford nel 1908, e dal circuito integrato di Jack Kilby (1958) al PC IBM (1981). La prima dimostrazione del proto-internet avvenne nel 1972: Amazon e Google furono fondate rispettivamente nel 1994 e nel 1998.

Dove si colloca la bolla dell’intelligenza artificiale in questo spettro? Sebbene gran parte degli investimenti finora provenga dalle vaste riserve di liquidità e dal flusso di cassa continuo delle Big Tech, stanno iniziando a emergere segnali di leva finanziaria. Ad esempio, Oracle, entrata in gara solo in ritardo, sta compensando la sua liquidità relativamente limitata con un pacchetto di debito di circa 38 miliardi di dollari .

E questo potrebbe essere solo l’inizio. OpenAI ha annunciato l’intenzione di investire almeno mille miliardi di dollari nei prossimi cinque anni. Dato che una spesa di questa portata richiederà inevitabilmente indebitamenti su larga scala, gli LLM hanno un lasso di tempo limitato per dimostrare il loro valore economico e giustificare livelli di investimento così straordinari.

I primi studi offrivano motivi di ottimismo. Una ricerca condotta da Erik Brynjolfsson di Stanford e da Danielle Li e Lindsey Raymond del MIT, che esaminava l’introduzione dell’intelligenza artificiale generativa nei centri di assistenza clienti, aveva rilevato che l’assistenza basata sull’intelligenza artificiale aveva aumentato la produttività dei lavoratori del 15%. I maggiori miglioramenti si erano verificati tra i dipendenti meno esperti, la cui produttività era aumentata di oltre il 30%.

Brynjolfsson e i suoi coautori avevano anche osservato che i dipendenti che seguivano le raccomandazioni dell’IA diventavano più efficienti nel tempo e che l’esposizione agli strumenti di IA portava a miglioramenti duraturi delle competenze. Inoltre, i clienti trattavano gli agenti assistiti dall’IA in modo più positivo, mostrando maggiore soddisfazione e richiedendo meno di parlare con un supervisore.

Il quadro generale, tuttavia, appare meno incoraggiante. Un recente sondaggio del Progetto NANDA del MIT ha rilevato che il 95% dei progetti pilota di IA generativa nel settore privato sta fallendo. Sebbene meno rigoroso dello studio giudicato da esperti di Brynjolfsson, il sondaggio suggerisce che la maggior parte degli esperimenti aziendali con l’IA generativa non ha soddisfatto le aspettative. I ricercatori hanno attribuito questi fallimenti a un “divario di apprendimento” tra le poche aziende che hanno ottenuto assistenza da esperti nell’adattare le applicazioni alle esigenze aziendali pratiche – principalmente attività di gestione amministrativa – e quelle che hanno cercato di sviluppare sistemi interni per funzioni esterne come vendite e marketing.

I limiti dell’intelligenza artificiale generativa

La sfida principale che gli utenti di IA generativa devono affrontare deriva dalla natura stessa della tecnologia. Per loro natura, i sistemi di IA generativa trasformano i loro dati di addestramento – testo, immagini e parlato – in vettori numerici che, a loro volta, vengono analizzati per predire il simbolo successivo: sillaba, pixel o suono. Essendo essenzialmente motori di previsione probabilistici, commettono inevitabilmente errori casuali.

All’inizio di quest’anno, il defunto Brian Cantwell Smith, ex capo scienziato del leggendario Palo Alto Research Center di Xerox, ha descritto succintamente il problema. Come mi ha riferito il professor Henry Thompson dell’Università di Edimburgo, Smith ha osservato: “Non è un bene che [ChatGPT] dica cose sbagliate, ma ciò che è davvero, irrimediabilmente negativo, è che non ha idea che esista un mondo su cui si sbaglia“.

Il risultato inevitabile sono errori di vario tipo, i più dannosi dei quali sono le “allucinazioni”: affermazioni che sembrano plausibili ma descrivono cose che in realtà non esistono. È qui che il contesto diventa cruciale: in ambito aziendale, la tolleranza all’errore è già bassa e si avvicina allo zero quando la posta in gioco è alta.

La generazione di codice è un ottimo esempio. Il software utilizzato in ambienti sensibili dal punto di vista finanziario o operativo deve essere rigorosamente testato, modificato e sottoposto a disinfestazione informatica. Un programmatore junior dotato di intelligenza artificiale generativa può produrre codice a una velocità notevole. Ma questo output richiede comunque un’attenta revisione da parte degli ingegneri più esperti. Come suggeriscono numerosi aneddoti che circolano online, qualsiasi produttività acquisita nel periodo anticipato può svanire una volta che si considerano le risorse necessarie per il test e la supervisione. Jonathan Last di The Bulwark lo ha ben spiegato :

“L’intelligenza artificiale è come la produzione di macchine cinesi. Può creare buoni risultati a un prezzo incredibilmente basso (misurato qui in termini di costo del tempo umano). Il che significa che l’intelligenza artificiale – così come esiste oggi – è uno strumento utile, ma solo per compiti che hanno un’elevata tolleranza agli errori… se chiedessi a ChatGPT di fare ricerche su un argomento per me e incorporassi quella ricerca in un articolo che sto scrivendo e fosse corretta solo al 90%, allora avremmo un problema. Perché il mio prodotto scritto ha una bassa tolleranza agli errori.”

Nel suo nuovo libro “La misura del progresso” , l’economista dell’Università di Cambridge Diane Coyle evidenzia un’altra importante preoccupazione: l’opacità dell’IA. “Quando si parla di IA”, ha scritto di recente , “alcuni dei dati più basilari sono mancanti o incompleti. Ad esempio, quante aziende utilizzano l’IA generativa e in quali settori? Per cosa la utilizzano? Come vengono applicati gli strumenti di IA in settori come il marketing, la logistica o il servizio clienti? Quali aziende stanno implementando agenti di IA e chi li utilizza effettivamente?”

L’inevitabile resa dei conti

Questo ci porta alla domanda centrale: qual è il potenziale di creazione di valore degli LLM? Il loro insaziabile appetito per potenza di calcolo ed elettricità, unito alla loro dipendenza da costosi controlli e correzioni di errori, rende incerta la redditività. I ​​clienti aziendali genereranno ricavi sufficienti a giustificare gli investimenti necessari in infrastrutture e supporto umano? E se diversi LLM ottengono risultati pressoché identici, i loro risultati diventeranno una materia prima, riducendo la produzione di simboli a un’attività a basso margine?

Dalle ferrovie all’elettrificazione alle piattaforme digitali, per fornire la prima unità di servizio sono sempre stati necessari ingenti investimenti iniziali, mentre il costo marginale di ogni unità aggiuntiva è rapidamente diminuito, spesso scendendo al di sotto del costo medio necessario per recuperare l’investimento iniziale. In condizioni di concorrenza, i prezzi tendono a gravitare verso il costo marginale, lasciando tutti i concorrenti in perdita. Il risultato, ripetutamente, è stato la creazione di monopoli regolamentati, cartelli o altre “cospirazioni di limitazione del commercio”, per usare le parole dello Sherman Antitrust Act .

Esistono due alternative distinte all’implementazione di LLM a livello aziendale. Una consiste nello sviluppo di piccoli modelli linguistici , ovvero sistemi addestrati su complessi di dati accuratamente selezionati per compiti specifici e ben definiti. Le grandi istituzioni, come JPMorgan o le agenzie governative, potrebbero sviluppare le proprie applicazioni verticali, personalizzate in base alle proprie esigenze, riducendo così il rischio di allucinazioni e i costi di supervisione.

L’altra alternativa è il mercato dei consumatori, dove i fornitori di intelligenza artificiale competono per l’attenzione e gli introiti pubblicitari con le piattaforme di social media consolidate. In questo ambito, dove il valore si misura spesso in termini di intrattenimento e coinvolgimento, tutto è lecito. ChatGPT avrebbe 800 milioni di “utenti attivi settimanali” , il doppio rispetto a febbraio. OpenAI sembra pronta a lanciare un browser web potenziato da LLM, ChatGPT Atlas .

Tuttavia, dato che i browser di Google e Apple sono gratuiti e integrano già assistenti AI, non è chiaro se OpenAI possa sostenere un modello di ricavi basato su abbonamento o sul pagamento per prestazioni che giustifichi i suoi ingenti investimenti. Diverse stime suggeriscono che solo circa 11 milioni di utenti – circa l’1,5% del totale – attualmente pagano per ChatGPT in qualsiasi forma. Pertanto, gli LLM incentrati sul consumatore potrebbero essere condannati a competere per i ricavi pubblicitari in un mercato già maturo.

L’esito di questa corsa in atto è impossibile da prevedere. Le aziende a gestione limitata (LLM) riusciranno a generare un flusso di cassa positivo e a coprire i costi energetici della loro gestione su larga scala? Oppure l’industria dell’intelligenza artificiale, ancora nascente, si frammenterà in un mosaico di fornitori specializzati e di nicchia, mentre le aziende più grandi competono con piattaforme di social media consolidate, comprese quelle di proprietà dei loro investitori aziendali? Quando i mercati riconosceranno che il settore si sta frammentando anziché consolidando, la bolla dell’intelligenza artificiale sarà finita.

Ironicamente, una resa dei conti anticipata potrebbe giovare all’ecosistema più ampio, sebbene sarebbe dolorosa per coloro che hanno investito al culmine. Una simile deflazione potrebbe impedire a molti degli ambiziosi progetti di data center di trasformarsi in asset inutilizzati, simili ai binari ferroviari inutilizzati e alle fibre ottiche spente lasciate dalle bolle del passato. In termini finanziari, eviterebbe anche un’ondata di prestiti ad alto rischio che potrebbe sfociare in un’altra bolla speculativa e in un crollo.

Molto probabilmente, una bolla realmente produttiva emergerà solo anni dopo che l’attuale frenesia speculativa si sarà raffreddata. Come dimostra chiaramente il Gartner Hype Cycle , un “punto di disillusione” precede il “plateau della produttività”. Nella vita il tempismo potrebbe non essere tutto, ma per i rendimenti degli investimenti lo è.

 

 

 

 

 

 

 

 

[1] il ciclo Otto, il principio termodinamico che guida i motori a benzina, o un motore a otto cilindri, che è una specifica configurazione del motore.

 

 

 

 

 

 

 

 

 

By


Commenti dei Lettori (0)


E' possibile commentare l'articolo nell'area "Commenti del Mese"