In breve
- Un panel online ha mostrato una profonda divisione tra transumanisti e tecnologi sull'AGI.
- L'autore Eliezer Yudkowsky ha avvertito che gli attuali sistemi di IA "scatola nera" rendono l'estinzione un risultato inevitabile.
- Max More ha sostenuto che ritardare l'AGI potrebbe costare all'umanità la sua migliore possibilità di sconfiggere l'invecchiamento e prevenire catastrofi a lungo termine.
Una netta divisione sul futuro dell'intelligenza artificiale si è manifestata questa settimana quando quattro eminenti tecnologi e transumanisti hanno dibattuto se costruire l'intelligenza artificiale generale, o AGI, salverebbe l'umanità o la distruggerebbe.
Il panel ospitato dall'organizzazione no-profit Humanity+ ha riunito uno dei più espliciti "catastrofisti" dell'IA, Eliezer Yudkowsky, che ha chiesto di fermare lo sviluppo avanzato dell'IA, insieme al filosofo e futurista Max More, al neuroscienziato computazionale Anders Sandberg e alla Presidente Emerita di Humanity+ Natasha Vita‑More.
La loro discussione ha rivelato disaccordi fondamentali sul fatto che l'AGI possa essere allineata con la sopravvivenza umana o se la sua creazione renderebbe inevitabile l'estinzione.
Il problema della "scatola nera"
Yudkowsky ha avvertito che i moderni sistemi di IA sono fondamentalmente non sicuri perché i loro processi decisionali interni non possono essere completamente compresi o controllati.
"Qualsiasi cosa che sia una scatola nera probabilmente finirà per avere problemi notevolmente simili alla tecnologia attuale," ha avvertito Yudkowsky. Ha sostenuto che l'umanità dovrebbe spostarsi "molto, molto lontano dai paradigmi attuali" prima che l'IA avanzata possa essere sviluppata in sicurezza.
L'intelligenza artificiale generale si riferisce a una forma di IA che può ragionare e apprendere attraverso una vasta gamma di compiti, piuttosto che essere costruita per un singolo lavoro come la generazione di testo, immagini o video. L'AGI è spesso associata all'idea della singolarità tecnologica, perché raggiungere quel livello di intelligenza potrebbe consentire alle macchine di migliorare se stesse più velocemente di quanto gli esseri umani possano tenere il passo.
Yudkowsky ha fatto riferimento all'analogia del "massimizzatore di graffette" resa popolare dal filosofo Nick Bostrom per illustrare il rischio. L'esperimento mentale presenta un'IA ipotetica che converte tutta la materia disponibile in graffette, perseguendo la sua fissazione su un singolo obiettivo a spese dell'umanità. Aggiungere più obiettivi, ha detto Yudkowsky, non migliorerebbe significativamente la sicurezza.
Riferendosi al titolo del suo recente libro sull'IA, "Se qualcuno lo costruisce, tutti muoiono," ha detto: "Il nostro titolo non è tipo che potrebbe possibilmente ucciderti," ha detto Yudkowsky. "Il nostro titolo è, se qualcuno lo costruisce, tutti muoiono."
Ma More ha contestato la premessa che un'estrema cautela offra il risultato più sicuro. Ha sostenuto che l'AGI potrebbe fornire all'umanità la migliore possibilità di superare l'invecchiamento e le malattie.
"La cosa più importante per me è che l'AGI potrebbe aiutarci a prevenire l'estinzione di ogni persona vivente a causa dell'invecchiamento," ha affermato More. "Stiamo tutti morendo. Stiamo andando verso una catastrofe, uno per uno." Ha avvertito che un'eccessiva cautela potrebbe spingere i governi verso controlli autoritari come unico modo per fermare lo sviluppo dell'IA a livello mondiale.
Sandberg si è posizionato tra i due campi, descrivendosi come "più ottimista" pur rimanendo più cauto degli ottimisti transumanisti. Ha raccontato un'esperienza personale in cui ha quasi utilizzato un modello linguistico di grandi dimensioni per assistere nella progettazione di un'arma biologica, un episodio che ha descritto come "terrificante."
"Stiamo arrivando a un punto in cui amplificare gli attori malintenzionati causerà anche un enorme disastro," ha detto Sandberg. Tuttavia, ha sostenuto che una sicurezza parziale o "approssimativa" potrebbe essere raggiungibile. Ha rifiutato l'idea che la sicurezza debba essere perfetta per essere significativa, suggerendo che gli esseri umani potrebbero almeno convergere su valori condivisi minimi come la sopravvivenza.
"Quindi, se si richiede una sicurezza perfetta, non la si otterrà. E questo suona molto male da quella prospettiva," ha detto. "D'altra parte, penso che possiamo effettivamente avere una sicurezza approssimativa. È abbastanza buona."
Scetticismo sull'allineamento
Vita-More ha criticato il più ampio dibattito sull'allineamento stesso, sostenendo che il concetto presuppone un livello di consenso che non esiste nemmeno tra collaboratori di lunga data.
"La nozione di allineamento è uno schema alla Pollyanna," ha detto. "Non sarà mai allineato. Voglio dire, anche qui, siamo tutte brave persone. Ci conosciamo da decenni e non siamo allineati."
Ha descritto l'affermazione di Yudkowsky secondo cui l'AGI ucciderebbe inevitabilmente tutti come "pensiero assolutista" che non lascia spazio ad altri risultati.
"Ho un problema con l'affermazione generale che tutti muoiono," ha detto. "Affrontando questo come futurista e pensatrice pragmatica, non lascia conseguenze, nessuna alternativa, nessun altro scenario. È solo un'affermazione diretta, e mi chiedo se rifletta una sorta di pensiero assolutista."
La discussione ha incluso un dibattito sul fatto che una più stretta integrazione tra umani e macchine possa mitigare il rischio posto dall'AGI—qualcosa che il CEO di Tesla Elon Musk ha proposto in passato. Yudkowsky ha respinto l'idea di fondersi con l'IA, paragonandola a "cercare di fondersi con il tuo forno tostapane."
Sandberg e Vita-More hanno sostenuto che, man mano che i sistemi di IA diventano più capaci, gli esseri umani dovranno integrarsi o fondersi più strettamente con essi per affrontare meglio un mondo post-AGI.
"Tutta questa discussione è un controllo della realtà su chi siamo come esseri umani," ha detto Vita-More.
Newsletter Daily Debrief
Inizia ogni giorno con le principali notizie in questo momento, oltre a contenuti originali, un podcast, video e altro ancora.
Fonte: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end


