Project Syndicate » Selezione del Mese

Come impedire un’apocalisse dell’Intelligenza Artificiale, di Robert Skidelsky (da Project Syndicate, 19 dicembre 2023)

 

Dec 19, 2023

How to Prevent an AI Apocalypse

ROBERT SKIDELSKY

skidelsky

LONDON – A little over a year ago, the San Francisco-based OpenAI released its chatbot, ChatGPT, triggering an artificial-intelligence gold rush and reigniting the age-old debate about the effects of automation on human welfare.

The fear of displacement by machines can be traced back to the nineteenth-century Industrial Revolution, when groups of English handloom weavers, known as Luddites, began destroying the power looms that threatened their livelihoods. The movement, which peaked between 1811 and 1817, was ultimately suppressed by government forces, and its leaders were executed or exiled to Australia.

But the Luddites’ arguments found an unexpected (and somewhat ironic) champion in renowned economist David Ricardo, who argued in his 1817 book On the Principles of Political Economy and Taxation that “the opinion entertained by the laboring class, that the employment of machinery is frequently detrimental to their interests, is not founded on prejudice and error, but is conformable to the correct principles of political economy.” The British economist Nassau Senior, for his part, advised the weavers to “get out of that branch of production.”

They ended up doing just that: 250,000 handloom jobs disappeared between 1820 and 1860. But while mechanization ended up benefiting human workers – the United Kingdom’s population and per capita real income multiplied over the same period – it adversely affected horses, whose numbers fell sharply as trains (and, later, motorized vehicles) replaced horse-drawn transport.

Since the Industrial Revolution, the prevailing pro-machine argument has been that by increasing labor productivity, automation boosts real incomes, allowing more individuals to enjoy higher living standards without corresponding job losses. Moreover, liberation from tedious menial tasks has enabled us to redirect our energy to more valuable pursuits.

The Luddites’ modern-day counterparts, on the other hand, emphasize the downsides of automation, especially the potential to destroy livelihoods and communities. An equitable distribution of income and power, they argue, is crucial to reaping the long-term benefits of technological progress. Techno-pessimists like Martin Ford and Daniel Susskind have argued that emerging technologies like AI will create too few new jobs, resulting in increased poverty and “technological unemployment.”

The rise of generative AI and the anticipated arrival of artificial general intelligence – an AI capable of any cognitive task that humans can perform – have supercharged the debate between techno-optimists and techno-skeptics. For example, in the health-care sector, a seemingly endless wellspring of tech hype, AI promises improved diagnostics, advanced telemedicine, more effective drugs, and reduced administrative burdens on doctors and nurses, leaving more time for patient care.

This seems to reflect the prevailing view among mainstream experts that generative AI will augment, rather than replace, human jobs. By automating routine tasks, it promises to free humans to pursue more creative work. To be sure, this transformation will require lifelong learning, making continuous education a condition not just for participating in the job market but also for accessing an expanding array of online services.

With the advent of generative AI, concerns have shifted from automation-induced job losses to the prospect of a superintelligence going rogue – a fear that dates back to Mary Shelley’s 1818 novel Frankenstein; or, The Modern Prometheus. Echoing these sentiments, former Google CEO Eric Schmidt recently remarked that while current AI models remain “under human control,” there is a real risk that one could develop the capability for “recursive self-improvement,” gain autonomy, and begin “setting its own goals.” Eventually, he warned, a “computer cluster” could evolve into a “truly superhuman expert” capable of acting independently.

As experts and scholars grow increasingly concerned about AI’s capacity to destroy the world, a growing number of voices have called for AI development to be aligned with human goals and values. There are two ways to achieve this. The first is to restrict the availability and sales of potentially harmful AI-based products, as policymakers in Europe and elsewhere have tried to do by imposing strict regulations on emerging technologies like autonomous cars and facial recognition.

One obvious problem with this approach is that reaching a consensus on what constitutes harm is difficult in a world in which moral relativism is the norm. Since it is increasingly unclear who “owns” content that is deemed harmful, it is virtually impossible to hold vendors or providers accountable. Moreover, attempts to regulate the use of technology tend to come too late.

The second way to rein in AI is to limit altogether the development of potentially dangerous products. But curbing demand is more complicated than restricting supply, especially in modern societies where competitive forces – both commercial and geopolitical – make slowing down technological innovation exceedingly difficult.

The recent turmoil at OpenAI is a case in point. In November, the company’s board of directors briefly fired CEO Sam Altman, reportedly due to concerns that AI could one day lead to humanity’s extinction. Although Altman was reinstated just days later, the scandal underscored the speed with which ostensibly beneficial technologies could become existential risks. With rapid commercialization apparently taking precedence over caution, and competition hastening the development of increasingly powerful tools, an AI-induced apocalypse seems increasingly plausible.

The inescapable conclusion is that merely regulating AI is not enough. But by introducing concepts such as neo-Luddism and redistribution into the public debate, we could develop the political and intellectual vocabulary needed to mitigate the threats posed by these emerging technologies.

For example, a neo-Luddite might ask: Why are affluent societies, which already produce more than enough for their citizens to live comfortably, still focused on maximizing GDP growth? One answer might be the lack of a fair distribution of wealth and income that would ensure that the benefits of productivity and efficiency gains are widely shared.

Another explanation is that technology itself is not intrinsically good or bad; it is a means to an end. And in today’s political economy, “technological innovation” is often a euphemism for enabling the rich and powerful to redirect capital from industry to finance, thereby monopolizing the benefits of automation and immiserating everyone else.

 

 

Come impedire un’apocalisse dell’Intelligenza Artificiale,

di Robert Skidelsky

 

LONDRA – Poco più di un anno fa, OpenAI con sede a San Francisco ha lanciato il suo programma in grado di interloquire con gli umani, ChatGPT, innescando una corsa all’oro dell’intelligenza artificiale e riaccendendo un antico dibattito sugli effetti dell’automazione sul benessere umano.

La paura dell’essere sostituiti dalle macchine può essere fatta risalire alla Rivoluzione Industriale del diciannovesimo secolo, quando gruppi di tessitori a mano di telai, conosciuti come Luddisti, cominciarono a distruggere i telai meccanici che minacciavano i loro mezzi di sostentamento. Il movimento, che ebbe la sua punta massima dal 1811 al 1817, venne alla fine represso dalle forze armate del governo, e i suoi leader vennero giustiziati o esiliati in Australia.

Ma gli argomenti dei Luddisti trovarono un inaspettato (e in qualche modo sarcastico) campione nel famoso economista David Ricardo, che nel suo libro Sui principi dell’economia politica e sulla tassazione sostenne che “l’opinione considerata dalla classe lavoratrice, che l’utilizzazione delle macchine sia frequentemente a detrimento dei loro interessi, non è fondata su pregiudizi ed errori, ma è conforme ai corretti principi dell’economia politica”. Per parte sua, l’economista inglese Nassau Senior, consigliò i tessitori ad “uscire da quella branca della produzione”.

Essi finirono proprio per farlo: 250.000 posti di lavoro nella tessitura manuale scomparvero tra il 1820 ed il 1860. Ma mentre la meccanizzazione finì per avvantaggiare i lavoratori umani – la popolazione ed il reddito reale procapite del Regno Unito si moltiplicarono nel corso dello stesso periodo – essa penalizzò i cavalli, il cui numero precipitò bruscamente quando i treni (e più tardi i veicoli motorizzati) sostituirono il trasporto guidato da animali.

A partire dalla Rivoluzione Industriale, la tesi prevalente a favore delle macchine è stata che aumentando la produttività del lavoro, l’automazione incoraggia i redditi reali, permettendo a più individui di godere di più alti livelli di vita senza perdite corrispondenti di posti di lavoro. Inoltre, la liberazione da noiosi compiti servili ha reindirizzato la nostra energia verso propositi di maggior valore.

Gli omologhi moderni dei Luddisti, d’altra parte, enfatizzano i lati negativi dell’automazione, in particolare la possibilità che essa distrugga il sostentamento delle persone e le comunità. Una distribuzione equa di reddito e di potere, essi sostengono, è cruciale per raccogliere i benefici a lungo termine del progresso tecnologico. Tecno-pessimisti come Martin Ford e Daniel Susskind hanno argomentato che le tecnologie emergenti come l’Intelligenza Artificiale creeranno troppo pochi nuovi posti di lavoro, risolvendosi in una accresciuta povertà e in una “disoccupazione tecnologica”.

L’ascesa dell’Intelligenza Artificiale generativa [1] e il previsto arrivo di una Intelligenza Artificiale generalizzata – una IA capace di ogni compito cognitivo che gli umani possono sviluppare – hanno sovraccaricato il dibattito tra tecno-ottimisti e tecno-scettici. Ad esempio, nel settore dell’assistenza sanitaria, una fonte apparentemente infinita di promozione della tecnologia, l’IA promette miglioramenti nella diagnostica, una telemedicina avanzata, farmaci più efficaci e ridotti oneri amministrativi per i dottori e gli infermieri, lasciando più tempo per l’assistenza ai pazienti.

Questo sembra riflettere l’opinione prevalente tra i principali esperti che l’IA aumenterà, anziché sostituire, i posti di lavoro umani. Automatizzando compiti di routine, essa promette di liberare gli umani nel perseguire lavori più creativi. Di sicuro, questa trasformazione richiederà un incessante apprendimento per tutta la vita, rendendo l’istruzione permanente una condizione non solo per partecipare al mercato del lavoro ma anche per accedere ad una gamma in crescita di servizi online.

Con l’avvento della IA generativa, le preoccupazioni si sono spostate dalla perdita di posti di lavoro indotta dall’automazione alla prospettiva di una superintelligenza fuori controllo – una paura che risale al racconto del 1818 di Mary Shelley Frankestein o il moderno Prometeo. Echeggiando questi sentimenti, il passato amministratore delegato di Google Eric Schmidt ha recentemente osservato che mentre l’attuale modello di IA resta “sotto il controllo umano”, c’è un rischio reale che si possa sviluppare una capacità di “automiglioramento ricorrente”, di autonomia nelle acquisizioni e di iniziare a “fissare da sé i propri obbiettivi”. Alla fine, egli metteva in guardia, un “aggregato di computer” potrebbe evolversi in un “esperto effettivamente superumano” capace di agire indipendentemente.

Mentre gli esperti e gli studiosi divengono sempre più preoccupati sulla capacità dell’IA di distruggere il mondo, un crescente numero di voci si è pronunciato perché gli sviluppi dell’IA siano allineati con gli obbiettivi ed i valori umani. Ci sono due modi per realizzarlo. Il primo è restringere la disponibilità e le vendite di prodotti basati sull’IA potenzialmente dannosi, come le autorità in Europa e altrove stanno cercando di fare imponendo severe regole sulle tecnologie emergenti come le automobili senza guidatore e il riconoscimento facciale.

Un evidente problema in questo approccio è che raggiungere un consenso su ciò che provoca danno è difficile in un mondo nel quale il relativismo morale è la regola. Dal momento che è sempre meno chiaro chi “possieda” un contenuto che viene ritenuto dannoso, è sostanzialmente impossibile considerare responsabili i venditori o i fornitori. Inoltre, i tentativi di regolare l’uso della tecnologia tendono a intervenire troppo tardi.

Il secondo modo per tenere a freno l’IA è limitare completamente lo sviluppo di prodotti potenzialmente dannosi. Ma tenere a freno la domanda è più complicato che non restringere l’offerta, particolarmente nelle società moderne nelle quali le forze della competizione – sia commerciale che geopolitica – rendono il rallentamento dell’innovazione tecnologica esageratamente difficile.

Il recente subbuglio presso OpenAI ne è un esempio. A novembre, il comitato dei dirigenti ha rapidamente licenziato l’amministratore delegato Sam Altman, a quanto si dice a causa di  preoccupazioni che un giorno l’IA avrebbe potuto condurre all’estinzione dell’umanità. Sebbene solo pochi giorni dopo Altman venisse reintegrato, lo scandalo ha messo in rilievo la velocità con la quale tecnologie manifestamente benefiche potrebbero divenire rischi esistenziali. Con una rapida commercializzazione che sembra prendere la precedenza sulla cautela, e la competizione che affretta lo sviluppo di prodotti sempre più potenti, una apocalisse indotta dall’IA appare sempre più plausibile.

Non si sfugge alla conclusione che la mera regolamentazione dell’IA non sia sufficiente. Ma introducendo nel dibattito pubblico concetti come il neo-luddismo e la redistribuzione, potremmo sviluppare il vocabolario politico e intellettuale necessario per mitigare le minacce costituite da queste tecnologie emergenti.

Ad esempio, un neo-luddista potrebbe chiedere: perché le società affluenti, che già producono più che abbastanza per i loro cittadini per vivere in modo confortevole, sono concentrate nel massimizzare la crescita del PIL? Una risposta potrebbe essere la mancanza di una giusta distribuzione della ricchezza e del reddito, che assicurerebbe che i benefici della produttività e i progressi nell’efficienza siano distribuiti generalmente.

Un’altra spiegazione è che la tecnologia da sola non è intrinsecamente positiva o negativa; essa costituisce un mezzo rispetto ad un fine. E nell’economia politica odierna, “innovazione tecnologica” è spesso un eufemismo per permettere ai ricchi ed ai potenti di reindirizzare il capitale dall’industria alla finanza, di conseguenza monopolizzando i benefici dell’innovazione e immiserendo tutti gli altri.

 

 

 

 

 

 

 

[1] L’aggiunta al concetto di Intelligenza Artificiale di un termine apparentemente banale come “generativa”, da quanto comprendo, non può essere affatto spiegata in modo semplicistico. Essa comporta una mole impressionante di specificazioni tecniche. Ma forse, in sostanza, il significato può essere sintetizzato in questo modo: che, a fronte di una apprendimento ‘profondo’ di una quantità enorme di dati – testi, immagini, musica ed altri media – l’IA può fornire risposte ‘creative’ a vari tipi di richieste da parte dell’utente. Dove per ‘creatività’ si deve intendere non una aggiunta reale alle possibilità dell’intelligenza umana, ma una possibilità inarrivabile di ‘deduzione’ da una fonte enorme di informazioni derivanti dall’intelligenza umana.

Una lettura preziosa sull’argomento, su FataTurchina dell’8 marzo 2023, è l’articolo di Noam Chomsky, Ian Roberts e Jeffrey Watumull “La falsa promessa di ChatGPT”.

 

 

 

 

By


Commenti dei Lettori (0)


E' possibile commentare l'articolo nell'area "Commenti del Mese"