Ray Kurzweil, noto futurista e direttore dell'ingegneria di Google, ha pubblicato una confutazione alla lettera chiedendo una pausa nella ricerca sull'IA, offrendo ragioni per cui la proposta è impraticabile e priva l'umanità di scoperte mediche e innovazioni che avvantaggiano profondamente l'umanità.
Lettera internazionale per sospendere lo sviluppo dell'IA
Una lettera aperta firmata da scienziati e celebrità di tutto il mondo (pubblicata su FutureOfLife.org) chiedeva una pausa completa sullo sviluppo di un'IA più potente di GPT-4, l'ultima versione creata da OpenAI.
Oltre a sospendere l'ulteriore sviluppo dell'intelligenza artificiale, hanno anche chiesto lo sviluppo di protocolli di sicurezza supervisionati da esperti indipendenti di terze parti.
Alcuni dei punti che fanno gli autori della lettera aperta:
- L'intelligenza artificiale rappresenta un rischio profondo
- Lo sviluppo dell'IA dovrebbe procedere solo dopo che le applicazioni vantaggiose della tecnologia saranno enumerate e giustificate
- L'intelligenza artificiale dovrebbe procedere solo se "noi" (le migliaia di firmatari della lettera) siamo fiduciosi che i rischi dell'IA siano gestibili.
- Gli sviluppatori di intelligenza artificiale sono chiamati a collaborare con i responsabili politici per sviluppare sistemi di governance dell'IA costituiti da organismi di regolamentazione.
- Lo sviluppo di tecnologie di filigrana per aiutare a identificare i contenuti creati dall'intelligenza artificiale e per controllare la diffusione della tecnologia.
- Un sistema per l'attribuzione della responsabilità per danni creati da AI
- Creazione di istituzioni per far fronte alle interruzioni causate dalla tecnologia AI
La lettera sembra provenire dal punto di vista secondo cui la tecnologia AI è centralizzata e può essere messa in pausa dalle poche organizzazioni che hanno il controllo della tecnologia. Ma l'intelligenza artificiale non è esclusivamente nelle mani di governi, istituti di ricerca e aziende.
L'intelligenza artificiale è a questo punto una tecnologia open source e decentralizzata, sviluppata da migliaia di individui su scala globale di collaborazione.
Ray Kurzweil: futurista, autore e direttore dell'ingegneria presso Google
Ray Kurzweil progetta software e macchine incentrate sull'intelligenza artificiale sin dagli anni '60, ha scritto molti libri popolari sull'argomento ed è famoso per fare previsioni sul futuro che tendono ad essere corrette.
Delle 147 previsioni che ha fatto sulla vita nel 2009, solo tre previsioni, per un totale del 2%, erano sbagliate.
Tra le sue previsioni negli anni '90 c'è che molti supporti fisici, come i libri, perderanno popolarità man mano che verranno digitalizzati. In un momento negli anni '90 in cui i computer erano grandi e ingombranti, ha predetto che i computer sarebbero stati abbastanza piccoli da poter essere indossati entro il 2009, il che si è rivelato vero (How My Predictions Are Faring - 2010 PDF).
Le recenti previsioni di Ray Kurzweil si concentrano su tutto il bene che l'intelligenza artificiale porterà, in particolare sulle scoperte mediche e scientifiche.
Kurzweil si concentra anche sull'etica dell'IA.
Nel 2017 è stato uno dei partecipanti (insieme al CEO di OpenAI Sam Altman) che ha redatto una lettera aperta nota come Asilomar AI Principles che è stata pubblicata anche sul sito web Future of Life, linee guida per uno sviluppo sicuro ed etico delle tecnologie di Intelligenza Artificiale.
Tra i principi che ha contribuito a creare:
- “L'obiettivo della ricerca sull'IA dovrebbe essere quello di creare non un'intelligenza non diretta, ma un'intelligenza benefica.
- Gli investimenti nell'IA dovrebbero essere accompagnati da finanziamenti per la ricerca per garantirne un uso vantaggioso
- Dovrebbe esserci uno scambio costruttivo e salutare tra i ricercatori di intelligenza artificiale e i responsabili politici.
- L'intelligenza artificiale avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate.
- La superintelligenza dovrebbe essere sviluppata solo al servizio di ideali etici ampiamente condivisi e a beneficio di tutta l'umanità piuttosto che di uno stato o di un'organizzazione.
La risposta di Kurzweil alla lettera aperta che chiedeva una pausa nello sviluppo dell'IA proveniva da una vita di tecnologia innovativa dal punto di vista di tutto il bene benefico che può fare per l'umanità e il mondo naturale.
La sua risposta si è concentrata su tre punti principali:
- L'invito a una pausa è troppo vago per essere pratico
- Tutte le nazioni devono accettare la pausa o gli obiettivi sono sconfitti dall'inizio
- Una pausa nello sviluppo ignora i benefici come l'identificazione di cure per le malattie.
Troppo vago per essere pratico
Il suo primo punto sulla lettera è che è troppo vaga perché sta causando una pausa sull'intelligenza artificiale che è più potente di GPT-4, che presuppone che GPT-4 sia l'unico tipo di intelligenza artificiale.
Kurzweil ha scritto:
"Per quanto riguarda la lettera aperta per" sospendere "la ricerca sull'intelligenza artificiale" più potente di GPT-4 ", questo criterio è troppo vago per essere pratico".
Le nazioni rinunceranno alla pausa
Il suo secondo punto è che le richieste delineate nella lettera possono funzionare solo se tutti i ricercatori di tutto il mondo collaborano volontariamente.
Qualsiasi nazione che rifiuta di firmare avrà il vantaggio, che è probabilmente quello che accadrebbe.
Lui scrive:
"E la proposta affronta un serio problema di coordinamento: coloro che accettano una pausa potrebbero rimanere molto indietro rispetto alle società o alle nazioni che non sono d'accordo".
Questo punto chiarisce che l'obiettivo di una pausa completa non è praticabile, perché le nazioni non cederanno un vantaggio e inoltre, l'IA è democratizzata e open source, nelle mani di individui in tutto il mondo.
L'intelligenza artificiale porta vantaggi significativi all'IA
Ci sono stati editoriali che hanno liquidato l'IA in quanto poco vantaggiosa per la società, sostenendo che l'aumento della produttività dei lavoratori non è sufficiente per giustificare i rischi che temono.
L'ultimo punto di Kurzweil è che la lettera aperta che chiede una pausa nello sviluppo dell'IA ignora completamente tutto il bene che l'IA può fare.
Lui spiega:
“Ci sono enormi vantaggi nel far progredire l'IA in campi critici come la medicina e la salute, l'istruzione, la ricerca di fonti di energia rinnovabile per sostituire i combustibili fossili e decine di altri campi.
… sono necessarie più sfumature se vogliamo sbloccare i profondi vantaggi dell'IA per la salute e la produttività evitando i veri pericoli.
Pericoli, paura dell'ignoto e benefici per l'umanità
Kurzweil fa buoni punti su come l'IA può portare benefici alla società. Il suo punto secondo cui non c'è modo di mettere effettivamente in pausa l'IA è valido.
La sua spiegazione dell'IA sottolinea i profondi benefici per l'umanità che sono inerenti all'IA.
Potrebbe essere che l'implementazione dell'IA da parte di OpenAI come chatbot banalizzi l'IA e offuschi i benefici per l'umanità, spaventando allo stesso tempo le persone che non capiscono come funziona l'IA generativa?
Immagine in primo piano di Shutterstock/Iurii Motov