Project Syndicate » Selezione del Mese

Il Frankenstein tecnologico, di Robert Skidelsky (da Project Syndicate, 20 aprile 2023)

 

Apr 20, 2023

FrankenTech

ROBERT SKIDELSKY

skidelsky

LONDON – In Mary Shelley’s novel Frankenstein; or, The Modern Prometheus, scientist Victor Frankenstein famously uses dead body parts to create a hyperintelligent “superhuman” monster that – driven mad by human cruelty and isolation – ultimately turns on its creator. Since its publication in 1818, Shelley’s story of scientific research gone wrong has come to be seen as a metaphor for the danger (and folly) of trying to endow machines with human-like intelligence.

Shelley’s tale has taken on new resonance with the rapid emergence of generative artificial intelligence. On March 22, the Future of Life Institute issued an open letter signed by hundreds of tech leaders, including Tesla CEO Elon Musk and Apple co-founder Steve Wozniak, calling for a six-month pause (or a government-imposed moratorium) in developing AI systems more powerful than OpenAI’s newly released ChatGPT-4. “AI systems with human-competitive intelligence can pose profound risks to society and humanity,” says the letter, which currently has more than 25,000 signatories. The authors go on to warn of the “out-of-control” race “to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.”

Musk, currently the world’s second-richest person, is in many respects the Victor Frankenstein of our time. The famously boastful South Africa-born billionaire has already tried to automate the entire process of driving (albeit with mixedresults), claimed to invent a new mode of transportation with the Boring Company’s (still hypothetical) hyperloop project, and declared his intention to “preserve the light of consciousness” by using his rocket company SpaceX to establish a colony on Mars. Musk also happens to be a co-founder of OpenAI (he resigned from the company’s board in 2018 following a failed takeover attempt).

One of Musk’s pet projects is to combine AI and human consciousness. In August 2020, Musk showcased a pig with a computer chip implanted in its brain to demonstrate the so-called “brain-machine interface” developed by his tech startup Neuralink. When Gertrude the pig ate or sniffed straw, a graph tracked its neural activity. This technology, Musk said, could be used to treat memory loss, anxiety, addiction, and even blindness. Months later, Neuralink released a video of a monkey playing a video game with its mind thanks to an implanted device.

These stunts were accompanied by Musk’s usual braggadocio. Neuralink’s brain augmentation technology, he hoped, could usher in an era of “superhuman cognition” in which computer chips that optimize mental functions would be widely (and cheaply) available. The procedure to implant them, he has claimed, would be fully automated and minimally invasive. Every few years, as the technology improves, the chips could be taken out and replaced with a new model. This is all hypothetical, however; Neuralink is still struggling to keep its test monkeys alive.

While Musk tries to create cyborgs, humans could soon find themselves replaced by machines. In his 2005 book The Singularity Is Near, futurist Ray Kurzweil predicted that technological singularity – the point at which AI exceeds human intelligence – will occur by 2045. From then on, technological progress would be overtaken by “conscious robots” and increase exponentially, ushering in a better, post-human future. Following the singularity, according to Kurzweil, artificial intelligence in the form of self-replicating nanorobots could spread across the universe until it becomes “saturated” with intelligent (albeit synthetic) life. Echoing Immanuel Kant, Kurzweil referred to this process as the universe “waking up.”

But now that the singularity is almost upon us, Musk and company appear to be having second thoughts. The release of ChatGPT last year has seemingly caused panic among these former AI evangelists, causing them to shift from extolling the benefits of super-intelligent machines to figuring out how to stop them from going rogue.

Unlike Google’s search engine, which presents users with a list of links, ChatGPT can answer questions fluently and coherently. Recently, a philosopher friend of mine asked ChatGPT, “Is there a distinctively female style in moral philosophy?” and sent the answers to colleagues. One found it “uncannily human.” To be sure, she wrote, “it is a pretty trite essay, but at least it is clear, grammatical, and addresses the question, which makes it better than many of our students’ essays.”

In other words, ChatGPT passes the Turing test, exhibiting intelligent behavior that is indistinguishable from that of a human being. Already, the technology is turning out to be a nightmare for academic instructors, and its rapid evolution suggests that its widespread adoption could have disastrous consequences.

So, what is to be done? A recent policy brief by the Future of Life Institute (which is partly funded by Musk) suggests several possible ways to manage AI risks. Its proposals include mandating third-party auditing and certification, regulating access to computational power, creating “capable” regulatory agencies at the national level, establishing liability for harms caused by AI, increasing funding for safety research, and developing standards for identifying and managing AI-generated content.

But at a time of escalating geopolitical conflict and ideological polarization, preventing new AI technologies from being weaponized, much less reaching an agreement on global standards, seems highly unlikely. Moreover, while the proposed moratorium is ostensibly meant to give industry leaders, researchers, and policymakers time to comprehend the existential risks associated with this technology and to develop proper safety protocols, there is little reason to believe that today’s tech leaders can grasp the ethical implications of their creations.

In any case, it is unclear what a pause would mean in practice. Musk, for example, is reportedly already working on an AI startup that would compete with OpenAI. Are our contemporary Victor Frankensteins sincere about pausing generative AI, or are they merely jockeying for position?

 

Il Frankenstein tecnologico,

di Robert Skidelsky

 

LONDRA – Nel racconto di Mary Shelley Frankenstein, o il moderno Prometeo, come è noto lo scienziato Victor Frankenstein utilizza parti di corpo umano per creare un mostro “superumano” iperintelligente che – portato alla follia dalla crudeltà umana e dall’isolamento – alla fine si rivolta al suo creatore. Dalla sua pubblicazione nel 1818, il racconto della Shelley sulla ricerca scientifica che si conclude malamente ha finito con l’essere considerato come una metafora del pericolo (e della follia) di cercare di dotare le macchine di intelligenza simile agli umani.

Con la rapida ascesa della intelligenza artificiale generativa [1], la storia della Shelley ha assunto nuova risonanza. Il 22 marzo, l’Istituto sul Futuro della Vita ha pubblicato una lettera aperta firmata da centinaia di leader del settore tecnologico, compresi l’Amministratore Delegato di Tesla Elon Musk e il cofondatore di Apple Steve Wozniak, che si pronuncia per una interruzione della produzione di sei mesi (o per una moratoria imposta dal Governo) dei sistemi di AI più potenti che OpenAI ha da poco realizzato con ChatGPT-4. “I sistemi di AI con intelligenza competitiva con gli umani possono costituire profondi rischi per la società e l’umanità”, dice la lettera, che attualmente ha più di 25 mila firme. Gli autori proseguono con la messa in guardia per la gara ‘senza controlli’ “per sviluppare e dispiegare cervelli digitali ancora più potenti che nessuno – neppure i loro creatori – può comprendere, prevedere  o affidabilmente controllare”.

Musk, attualmente la seconda persona più ricca al mondo, è sotto molti aspetti il Victor Frankenstein dei nostri tempi. Il famoso vanaglorioso miliardario nato in Sudafrica ha già cercato di automatizzare l’intero processo della guida (per quanto con risultati contrastanti), ha sostenuto di aver inventato una nuova modalità di trasporto con il progetto ‘a iperanello’ della Boring Company (tuttora ipotetico) [2] ed ha dichiarato la sua intenzione di “preservare la luce della coscienza” utilizzando la sua impresa di missili SpaceX per stabilire una colonia su Marte. Si dà anche il caso che Musk sia un cofondatore di OpenAI (egli si è dimesso dal consiglio di amministrazione della società nel 2018, a seguito di una tentativo fallito di prenderne possesso).

Uno dei progetti prediletti di Musk è combinare l’AI con la coscienza umana. Nell’agosto del 2020, Musk mise in mostra un maiale con un microprocessore di computer impiantato nel suo cervello per dimostrare il cosiddetto “interfaccia macchina-cervello” sviluppato dalla sua startup tecnologica Neuralink. Questa tecnologia, affermava Musk, potrebbe essere utilizzata per trattare la perdita di memoria, l’ansietà, la dipendenza e persino la cecità. Mesi dopo, Neuralink rilasciò un video di una scimmia che giocava un video gioco con la sua mente grazie ad un congegno impiantato.

Questi trucchi vennero accompagnati dalle consuete sbruffonerie di Musk. La tecnologia dell’incremento cerebrale di Neuralink, egli sperava, poteva inaugurare un’epoca di “cognizione super umana”, nella quale i microprocessori del computer che ottimizzano le funzioni mentali sarebbero state ampiamente (ed economicamente) disponibili. Ogni pochi anni, col miglioramento della tecnologia, i microprocessori sarebbero stati tolti e rimpiazzati con un nuovo modello. Tuttavia, questo è del tutto ipotetico: Neuralink ha ancora difficoltà a dare un senso al suo test sulle scimmie.

Mentre Musk cerca di produrre i cyborg, gli umani potrebbero presto trovarsi rimpiazzati dalle macchine. Nel suo libro del 2005, La eccezionalità è vicina, il futurista Ray Kurzweil prevedeva che la eccezionalità tecnologica – il punto in cui AI supera l’intelligenza umana – avverrà attorno al 2045. A partire da allora, il progresso tecnologico verrebbe sorpassato dai “robot consci” e aumenterebbe in modo esponenziale, inaugurando un futuro migliore, post-umano. A seguito della eccezionalità, secondo Kurzweil, l’intelligenza artificiale nella forma di nano-robot autoreplicantisi si diffonderebbe nell’universo sino a “saturarlo “ di vita intelligente (per quanto sintetica). Echeggiando Immanuel Kant, Kurzweil si riferiva a questo processo come il “risveglio” dell’universo.

Ma adesso che l’eccezionalità ormai incombe, Musk e soci pare stiano avendo un ripensamento. Il lancio dello ChatGPT dell’anno passato sembra abbia provocato panico tra questi passati evangelisti dell’Intelligenza Artificiale, spingendoli a spostarsi dallo sfruttamento dei vantaggi delle macchine super-intelligenti all’immaginarsi come fermarle dal diventare malefiche.

Diversamente dal motore di ricerca di Google, che offre agli utenti una lista di collegamenti, ChatGPT può rispondere fluentemente e coerentemente a domande. Recentemente un mio amico filosofo ha chiesto a ChatGPT: “C’è nella filosofia morale uno stile segnatamente femminile?” ed ha spedito le risposte a colleghi. Una di loro l’ha trovata “stranamente umana”. Di certo, ella ha scritto, “è un saggio abbastanza banale, ma almeno è chiaro, dal punto d vista della grammatica, e si misura con la domanda, il che lo rende migliore di molti compiti dei nostri studenti”.

In altri termini, ChatGPT supera il test di Turing, mostrando un comportamento intelligente che è indistinguibile da quello degli esseri umani. La tecnologia sta già presentandosi come un incubo per molti istruttori universitari, e la sua rapida evoluzione indica che la sua generalizzata adozione potrebbe avere conseguenze disastrose.

Dunque, cosa si dovrebbe fare? Recenti suggerimenti operativi da parte dell’Istituto sul Futuro della Vita (che in parte è finanziato da Musk) indicano vari modi possibili per gestire i rischi della AI. Le sue proposte includono l’obbligo della verifica e della certificazione da una parte ‘terza’, che regoli l’accesso alla potenza computazionale, crei agenzie regolamentari “competenti” al livello nazionale, stabilisca responsabilità per i danni provocati dalla AI, accresca i finanziamenti per la ricerca sulla sicurezza e sviluppi criteri per identificare e gestire i contenuti prodotti dala AI.

Ma in un epoca di conflitti geopolitici e di polarizzazione ideologica, impedire che le nuove tecnologie della AI vengano usate come armi improprie, per non dire raggiungere un accordo su criteri globali, sembra altamente improbabile. Inoltre, mentre la proposta moratoria comporta evidentemente di dare ai leader del settore ed ai legislatori il tempo di conprendere i rischi esistenziali connessi con questa tecnologia e di sviluppare appropriati protocolli di sicurezza, ci sono poche ragioni per credere che i leader dele tecnologie possano afferrare le implicazioni etiche delle loro creazioni.

In ogni caso, non è chiaro cosa in pratica significherebbe una pausa. Ad esempio, Musk a quanto si dice sta già lavorando ad una startup della AI che competerebbe con OpenAI. I nostri Victor Frankenstein sono sinceri sul mettere una pausa alla Intelligenza Artificiale generativa, oppure stanno semplicemente sgomitando per avvantaggiarsene?

 

 

 

 

 

 

 

[1] Nel senso, credo, che si “riproduce da se stessa”.

[2] Hyperloop (lett. iperanello o iperciclo) è un’ipotesi di tecnologia futuribile per il trasporto ad alta velocità di merci e passeggeri all’interno di tubi a bassa pressione in cui le capsule sono spinte da motori lineari a induzione e compressori d’aria. L’infrastruttura legata al sistema Hyperloop dovrebbe essere costituita da un doppio tubo sopraelevato in cui possono scorrere delle capsule adibite al trasporto … L’interno del tubo è tenuto a bassa pressione per minimizzare l’attrito dell’aria. Le capsule si muovono su un cuscino d’aria generato attraverso più aperture nella sua base, così da ridurre ulteriormente l’attrito.[1] In alternativa è in fase di studio la possibilità di utilizzare magneti permanenti per la levitazione magnetica delle capsule. L’idea di un treno che corre in un tubo a bassa pressione (detto vactrain) non è recente, essendo stata proposta per la prima volta da Robert Goddard all’inizio del XX secolo. Nel corso del ‘900 furono elaborati diversi studi e progetti al riguardo in varie parti del mondo, come lo svizzero Swissmetro, ma la loro realizzazione è stata ostacolata dalle difficoltà tecniche e soprattutto economiche. L’idea è stata poi ripresa tra il 2012 e il 2013 dall’imprenditore sudafricano Elon Musk; al 2017. Wikipedia.

 

 

 

 

By


Commenti dei Lettori (0)


E' possibile commentare l'articolo nell'area "Commenti del Mese"