Altri Economisti » Selezione del Mese

L’Intelligenza Artificiale può cambiare ogni cosa, ma probabilmente non troppo alla svelta, di Paul Krugman (dal blog di Krugman, 31 marzo 2023)


March 31, 2023

A.I. May Change Everything, but Probably Not Too Quickly

By Paul Krugman

zzz 429

“Artificial intelligence (A.I.) is already having a significant impact on the economy, and its influence is expected to grow significantly in the coming years …. Overall, the effects of A.I. on the economy will depend on a variety of factors, including the rate of technological advancement, government policies and the ability of workers to adapt to new technologies.”

OK, who said that? Nobody, unless we’re ready to start calling large language models people. What I did was ask ChatGPT to describe the economic effects of artificial intelligence; it went on at length, so that was an excerpt.

I think many of us who’ve played around with large language models — which are being widely discussed under the rubric of artificial intelligence (although there’s an almost metaphysical debate over whether we should call it intelligence) — have been shocked by how much they now manage to sound like people. And it’s a good bet that they or their descendants will eventually take over a significant number of tasks that are currently done by human beings.

Like previous leaps in technology, this will make the economy more productive but will also probably hurt some workers whose skills have been devalued. Although the term “Luddite” is often used to describe someone who is simply prejudiced against new technology, the original Luddites were skilled artisans who suffered real economic harm from the introduction of power looms and knitting frames.

But this time around, how large will these effects be? And how quickly will they come about? On the first question, the answer is that nobody really knows. Predictions about the economic impact of technology are notoriously unreliable. On the second, history suggests that large economic effects from A.I. will take longer to materialize than many people currently seem to expect.

Consider the effects of previous advances in computing. Gordon Moore, a founder of Intel — which introduced the microprocessor in 1971 — died last week. He was famous for his prediction that the number of transistors on a computer chip would double every two years — a prediction that proved stunningly accurate for half a century. The consequences of Moore’s Law are all around us, most obviously in the powerful computers, a.k.a. smartphones, that almost everyone carries around these days.

For a long time, however, the economic payoff from this awesome rise in computing power was surprisingly elusive. Here’s a chart of the long-run rise in labor productivity — output per hour in the nonfarm sector — measured as the annual rate of growth over the previous 10 years (to smooth out some of the noise):

Krug IA








Payoffs from new ideas can be a long time coming.Credit…John Kendrick, Bureau of Labor Statistics

I’ll explain some of what’s in the chart in a minute. But the first thing to notice is that for at least two decades after Moore’s Law kicked in, America, far from experiencing a productivity boom, suffered from a protracted productivity slowdown. The boom kicked in only during the 1990s, and even then it was a bit disappointing, as I’ll also explain in a minute.

Why did a huge, prolonged surge in computing power take so long to pay off for the economy? In 1990 the economic historian Paul David published one of my favorite economics papers of all time, “The Dynamo and the Computer.” It drew a parallel between the effects of information technology and those of an earlier tech revolution, the electrification of industry.

As David noted, electric motors became widely available in the 1890s. But having a technology isn’t enough. You also have to figure out what to do with it.

To take full advantage of electrification, manufacturers had to rethink the design of factories. Pre-electric factories were multistory buildings with cramped working spaces, because that was necessary to make efficient use of a steam engine in the basement driving the machines through a system of shafts, gears and pulleys.

It took time to realize that having each machine driven by its own motor made it possible to have sprawling one-story factories with wide aisles allowing easy movement of materials, not to mention assembly lines. As a result, the big productivity gains from electrification didn’t materialize until after World War I.

Sure enough, as David, in effect, predicted, the economic payoff from information technology finally kicked in during the 1990s, as filing cabinets and secretaries taking dictation finally gave way to cubicle farms. (What? You think technological progress is always glamorous?) The lag in this economic payoff even ended up being similar in length to the lagged payoff from electrification.

But this history still presents a few puzzles. One is why the first productivity boom from information technology (there may be another one coming, if the enthusiasm about chatbots is justified) was so short-lived; basically it lasted only around a decade.

And even while it lasted, productivity growth during the I.T. boom was no higher than it was during the generation-long boom after World War II, which was notable in the fact that it didn’t seem to be driven by any radically new technology. (That’s why it’s marked with a question mark in the chart above.)

In 1969 the celebrated management consultant Peter Drucker published “The Age of Discontinuity,” a book that correctly predicted major changes in the economy’s structure, yet the book’s title implies — correctly, I think — that the preceding period of extraordinary economic growth was actually an age of continuity, an era during which the basic outlines of the economy didn’t change much, even as America became vastly richer.

Or to put it another way, the great boom from the 1940s to around 1970 seems to have been largely based on the use of technologies, like the internal combustion engine, that had been around for decades — which should make us even more skeptical about trying to use recent technological developments to predict economic growth.

That’s not to say that artificial intelligence won’t have huge economic impacts. But history suggests that they won’t come quickly. ChatGPT and whatever follows are probably an economic story for the 2030s, not for the next few years.

Which doesn’t mean that we should ignore the implications of a possible A.I.-driven boom. Large language models in their current form shouldn’t affect economic projections for next year and probably shouldn’t have a large effect on economic projections for the next decade. But the longer-run prospects for economic growth do look better now than they did before computers began doing such good imitations of people.

And long-run economic projections matter, even if they’re always wrong, because they underlie the long-term budget outlook, which in turn helps drive current policy in a number of areas. Not to put too fine a point on it, but anyone who predicts a radical acceleration of economic growth thanks to A.I. — which would lead to a large rise in tax receipts — and simultaneously predicts a future fiscal crisis unless we make drastic cuts to Medicare and Social Security isn’t making much sense.


L’Intelligenza Artificiale può cambiare ogni cosa, ma probabilmente non troppo alla svelta,

di Paul Krugman


“L’Intelligenza Artificiale (IA) sta già avendo un impatto significativo sull’economia, e la sua influenza ci si aspetta che cresca in modo rilevante negli anni avvenire … Nel complesso, gli effetti dell’IA dipendono da una varietà di fattori, incluso il tasso di progresso tecnologico, le politiche pubbliche e la capacità dei lavoratori di adattarsi alle nuove tecnologie”.

E chi l’ha detto questo? Nessuno, se non siete ancora pronti a parlare con individui con ‘modelli linguistici di grandi dimensioni[1]. È quello che ho fatto io chiedendo ad un ChatGPT di descrivere gli effetti economici dell’intelligenza artificiale; esso si è dilungato, cosicché quello è un estratto.

Penso che alcuni di noi che si sono trastullati con i ‘modelli linguistici di grandi dimensioni’ – che vengono generalmente discussi sotto la rubrica dell’Intelligenza Artificiale (per quanto ci sia un dibattito quasi metafisico se dovremmo definirla intelligenza) – siano rimasti impressionati da quanto adesso essi cerchino di apparire come persone. E si può scommettere che essi o i loro discendenti alla fine subentreranno in un numero significativo di funzioni che adesso sono svolte da esseri umani.

Come precedenti balzi nella tecnologia, questo renderà l’economia più produttiva ma danneggerà anche alcuni lavoratori le cui competenze verranno svalutate. Sebbene il termine “luddista” viene spesso usato per descrivere qualcuno che ha semplicemente un pregiudizio contro le nuove tecnologie, gli originari Ludditi erano artigiani competenti che patirono un vero danno economico dall’introduzione dei telai meccanici e dei telai per maglieria.

Ma questa volta, quanto saranno grandi questi effetti? E con quanta rapidità avranno luogo? Quanto alla prima domanda, la risposta è che nessuno lo sa. Le previsioni sull’impatto economico delle tecnologie sono notoriamente inaffidabili. Quanto alla seconda, la storia suggerisce che perché si materializzino i grandi effetti economici dell’Intelligenza Artificiale  occorrerà più tempi di quello che attualmente molte persone si aspettano.

Si considerino gli effetti dei precedenti progressi nei computer. Gordon Moore, un fondatore di Intel – che nel 1971 introdusse il microprocessore – è morto la settimana scorsa. Egli era famoso per la sua previsione che il numero dei transistor su un microchip di un computer sarebbe raddoppiato ogni due anni – una previsione che per mezzo secolo si è dimostrata sorprendentemente precisa. Le conseguenze della Legge di Moore sono tutte attorno a noi, nel modo più evidente nei potenti computer, anche noti come telefonini, che di questi tempi quasi tutti si portano addosso.

Per un lungo periodo, tuttavia, i vantaggi da questa fantastica crescita della potenza dei computer sono stati sorprendentemente sfuggenti. Ecco una tabella sulla crescita nel lungo periodo della produttività del lavoro – la produzione oraria nel settore non agricolo – misurata come il tasso annuale di crescita rispetto ai dieci anni precedenti (in modo da distendere nel tempo gli effetti degli eventi fuori dall’ordinario):

Krug IA








I progressi derivanti dalle nuove idee possono richiedere tempi lunghi. Fonte, John Kendrik, Ufficio delle Statistiche del lavoro

Spiegherò tra un attimo cosa c’è nella Tabella. Ma la prima cosa da notare è che per almeno due decenni dopo che la Legge di Moore si era affermata, l’America, lungi dal conoscere un boom della produttività, patì un perdurante rallentamento della produttività. Il boom si manifestò soltanto durante gli anni ’90, ed anche allora fu un po’ deludente, come anche spiegherò tra un attimo.

Perché una ampia, prolungata crescita nella potenza dei computer ha impiegato così tanto tempo per essere fruttuosa per l’economia? Nel 1990 lo storico dell’economia Paul David pubblicò uno dei miei preferiti saggi economici di tutti i tempi, “La dinamo e il computer”. Esso tracciava un confronto tra gli effetti della tecnologia dell’informazione e quelli di una precedente rivoluzione tecnologica, l’elettrificazione dell’industria.

Come David osservava, i motori elettrici erano diventati ampiamente disponibili negli anni ’90 dell’Ottocento. Ma avere una tecnologia non basta. Occorre anche immaginarsi cosa farne.

Per avvantaggiarsi della elettrificazione, i produttori delle manifatture dovevano ripensare la progettazione delle fabbriche. Le fabbriche pre-elettriche erano edifici su più piani che ostacolavano gli spazi di lavoro, perché era necessario rendere efficiente l’utilizzo di un motore a vapore nel piano interrato che guidava le macchine attraverso un sistema di assi, ingranaggi e pulegge.

Ci volle tempo per comprendere che avere ogni macchina guidata dal suo proprio motore rendeva possibile avere fabbriche che si distendevano su un unico piano con ampie navate che consentivano facili movimenti dei materiali, per non parlare delle linee di assemblaggio. Di conseguenza, i grandi vantaggi nella produttività non si materializzarono sino a dopo la Prima Guerra Mondiale.

Certamente, come David in effetti aveva previsto, i vantaggi economici dalla tecnologia dell’informazione alla fine si manifestarono durante gli anni ’90, quando armadi per le schedature e segretarie sotto dettatura finalmente aprirono la strada ad ambienti di lavoro divisi in cubicoli (Cosa? Pensate che il progresso tecnologico sia sempre attraente?). Il ritardo di questo risultato economico finì addirittura con l’essere analogo alla lunghezza del ritardo nel risultato dell’elettrificazione.

Ma questa storia presenta ancora alcuni misteri. Uno riguarda il motivo per il quale il primo boom di produttività dalla tecnologia dell’informazione (un secondo potrebbe essere in arrivo, se l’entusiasmo per i ‘robot dialoganti’ è giustificato) fu di così breve durata; fondamentalmente esso è durato solo circa un decennio.

E mentre era in corso, la crescita della produttività durante il boom della tecnologia dell’informazione non fu più elevata di quanto era stata durante il boom durato una generazione dopo la Seconda Guerra Mondiale, la qual cosa fu rilevante per il fatto che non sembrava essere guidata da alcuna tecnologia radicalmente nuova (che è il motivo per il quale nella tabella quel periodo è segnato con un punto interrogativo).

Nel 1969 il celebrato consulente aziendale Peter Drucker pubblicò “L’età della discontinuità”, un libro che prevedeva correttamente importanti cambiamenti nella struttura dell’economia, anche se il titolo del libro implicava – giustamente, io penso – che il periodo precedente di straordinaria crescita economica fosse stato un’epoca di continuità, un’età durante la quale le fondamentali linee guida dell’economia non erano cambiate molto, pur essendo l’America diventata enormemente più ricca.

Ovvero, per dirla altrimenti, il grande boom dagli anni ’40 a circa agi anni ’70 pare sia stato in gran parte basato sull’uso di tecnologie, come i motori a combustione interna, che erano state in circolazione da decenni – il che ci dovrebbe rendere più scettici nel cercare di usare i recenti sviluppi tecnologici per prevedere la crescita dell’economia.

Con questo non intendo dire che l’Intelligenza Artificiale non avrà vasti impatti economici. Ma la storia suggerisce che non arriveranno rapidamente. ChatGPT e tutto ciò che seguirà costituiscono probabilmente un racconto economico per gli anni dopo il 2030, non per i prossimi.

Il che non significa che dovremmo ignorare le implicazioni di un possibile boom guidato dalla Intelligenza Artificiale. I modelli linguistici di grandi dimensioni nella loro attuale forma non dovrebbero influenzare le previsioni economiche per il prossimo anno e probabilmente non dovrebbero avere un ampio effetto sulle previsioni economiche per il prossimo decennio. Ma adesso le prospettive a più lungo termine per la crescita economica sembrano migliori di quanto erano prima che i computer cominciassero a fare tali buone imitazioni degli esseri umani.

Le previsioni nel lungo periodo sono importanti, anche se sono spesso sbagliate, perché sono alla base delle previsioni di bilancio a lungo termine, il che a sua volta contribuisce a guidare le politica in un certo numero di aree. Non per mettere su ciò troppa enfasi, ma chiunque preveda una radicale accelerazione della crescita economica grazie alla IA – che porterebbe ad una ampia crescita nelle entrate fiscali – e simultaneamente preveda una futura crisi della finanza pubblica se non facciamo tagli drastici su Medicare e sulla Previdenza Sociale, non sta dicendo una cosa sensata.






[1] I “large language models” (LLM) sono tipi di modello di intelligenza artificiale addestrati per elaborare e generare testo in modo simile a come lo farebbe un essere umano. Sono chiamati ‘di grandi dimensioni’ (‘large’) perché sembra che negli ultimi anni le loro dimensioni siano aumentate una decina di volte. Suppongo che per dimensioni non si intenda tanto lo spazio fisico che occupano, quanto la quantità di informazioni e la potenza computazionale che contengono.






Commenti dei Lettori (0)

E' possibile commentare l'articolo nell'area "Commenti del Mese"