Il pioniere dell'IA Geoffrey Hinton, noto per il suo lavoro rivoluzionario nell'apprendimento profondo e nella ricerca sulle reti neurali, ha recentemente espresso le sue preoccupazioni riguardo ai rapidi progressi dell'IA e alle potenziali implicazioni.
Alla luce delle sue osservazioni sui nuovi modelli linguistici di grandi dimensioni come GPT-4, Hinton mette in guardia su diversi problemi chiave:
In questo articolo, approfondiamo le preoccupazioni di Hinton, la sua partenza da Google per concentrarsi sugli aspetti etici e di sicurezza dello sviluppo dell'IA e l'importanza di uno sviluppo responsabile dell'IA nel plasmare il futuro delle relazioni uomo-IA.
La partenza di Hinton da Google e lo sviluppo etico dell'IA
Nella sua ricerca di affrontare le considerazioni etiche e di sicurezza che circondano l'IA, Hinton ha deciso di abbandonare la sua posizione in Google.
Ciò gli consente la libertà di esprimere apertamente le sue preoccupazioni e di impegnarsi in un lavoro più filosofico senza i vincoli degli interessi aziendali.
Hinton afferma in un'intervista al MIT Technology Review:
“Voglio parlare dei problemi di sicurezza dell'IA senza doversi preoccupare di come interagisce con l'attività di Google. Finché sono pagato da Google, non posso farlo".
La partenza di Hinton segna uno spostamento della sua attenzione verso gli aspetti etici e di sicurezza dell'IA. Mira a partecipare attivamente ai dialoghi in corso sullo sviluppo e l'implementazione responsabile dell'IA.
Sfruttando la sua esperienza e reputazione, Hinton intende contribuire allo sviluppo di quadri e linee guida che affrontino questioni come pregiudizi, trasparenza, responsabilità, privacy e aderenza ai principi etici.
GPT-4 e cattivi attori
Durante una recente intervista, Hinton ha espresso preoccupazione per la possibilità che le macchine superino l'intelligenza umana. Le straordinarie capacità di GPT-4sviluppato da OpenAI e rilasciato all'inizio di quest'anno, ha indotto Hinton a rivalutare le sue convinzioni precedenti.
Crede che i modelli linguistici come GPT-4 siano sulla buona strada per essere molto più intelligenti di quanto inizialmente previsto, possedendo potenzialmente algoritmi di apprendimento migliori rispetto agli umani.
Hinton afferma nell'intervista:
“I nostri cervelli hanno 100 trilioni di connessioni. I modelli di linguaggio di grandi dimensioni hanno fino a mezzo trilione, al massimo un trilione. Eppure GPT-4 ne sa centinaia di volte più di chiunque altro. Quindi forse in realtà ha un algoritmo di apprendimento molto migliore del nostro.
Le preoccupazioni di Hinton ruotano principalmente attorno alle significative disparità tra macchine e umani. Paragona l'introduzione di grandi modelli linguistici a un'invasione aliena, sottolineando le loro abilità e conoscenze linguistiche superiori rispetto a qualsiasi individuo.
Hinton afferma nell'intervista:
“Queste cose sono totalmente diverse da noi. A volte penso che sia come se gli alieni fossero atterrati e le persone non se ne rendessero conto perché parlano molto bene l'inglese”.
Hinton mette in guardia sui rischi che i chatbot di intelligenza artificiale diventino più intelligenti degli umani e dell'essere sfruttato da "cattivi attori".
Nell'intervista, avverte che questi chatbot potrebbero essere utilizzati per diffondere disinformazione, manipolare gli elettorati e creare potenti spambot.
«Senti, ecco un modo in cui potrebbe andare tutto storto. Sappiamo che molte delle persone che vogliono utilizzare questi strumenti sono cattivi attori come Putin o DeSantis. Vogliono usarli per vincere guerre o manipolare gli elettori”.
Apprendimento a pochi colpi e supremazia dell'IA
Un altro aspetto che preoccupa Hinton è la capacità dei grandi modelli linguistici di funzionare apprendimento a pochi colpi.
Questi modelli possono essere addestrati per eseguire nuove attività con alcuni esempi, anche attività per le quali non sono stati addestrati direttamente.
Questa notevole capacità di apprendimento rende la velocità con cui le macchine acquisiscono nuove abilità paragonabile o addirittura superiore a quella degli esseri umani.
Hinton afferma nell'intervista:
"Persone[‘s brains] sembrava avere una sorta di magia. Bene, il fondo cade fuori da questa discussione non appena prendi uno di questi grandi modelli linguistici e lo alleni a fare qualcosa di nuovo. Può apprendere nuovi compiti in modo estremamente rapido.
Le preoccupazioni di Hinton vanno oltre l'impatto immediato sui mercati del lavoro e sulle industrie.
Alza il “rischio esistenziale” di ciò che accade quando i sistemi di intelligenza artificiale diventano più intelligenti degli umani, mettendo in guardia su scenari in cui i sistemi di intelligenza artificiale creano i propri obiettivi secondari e lottano per ottenere più potere.
Hinton fornisce un esempio di come i sistemi di intelligenza artificiale che sviluppano obiettivi secondari possono andare storti:
«Bene, ecco un obiettivo secondario che quasi sempre aiuta in biologia: ottenere più energia. Quindi la prima cosa che potrebbe accadere è che questi robot diranno: "Otteniamo più potenza". Reindirizziamo tutta l'elettricità ai miei chip.' Un altro grande obiettivo secondario sarebbe quello di creare più copie di te stesso. Ti suona bene?"
Impatto dell'intelligenza artificiale sui mercati del lavoro e gestione dei rischi
Hinton lo sottolinea L'effetto dell'intelligenza artificiale sui posti di lavoro è una preoccupazione significativa.
L'intelligenza artificiale e l'automazione potrebbero assumere compiti ripetitivi e banali, causando la perdita di posti di lavoro in alcuni settori.
I dipendenti della produzione e delle fabbriche potrebbero essere duramente colpiti dall'automazione.
I robot e le macchine guidate dall'intelligenza artificiale stanno crescendo nella produzione, il che potrebbe sostituire lavori umani rischiosi e ripetitivi.
L'automazione sta avanzando anche in agricoltura, con attività automatizzate come la semina, la raccolta e il monitoraggio delle colture.
Nel settore sanitario, alcune attività amministrative possono essere automatizzate, ma è meno probabile che i ruoli che richiedono interazione umana e compassione vengano completamente sostituiti dall'intelligenza artificiale.
In sintesi
Le preoccupazioni di Hinton sui rapidi progressi dell'IA e le loro potenziali implicazioni sottolineano la necessità di uno sviluppo responsabile dell'IA.
La sua partenza da Google indica il suo impegno ad affrontare considerazioni sulla sicurezza, promuovere un dialogo aperto e plasmare il futuro dell'IA in modo da salvaguardare il benessere dell'umanità.
Sebbene non sia più in Google, i contributi e le competenze di Hinton continuano a svolgere un ruolo fondamentale nel plasmare il campo dell'IA e guidarne lo sviluppo etico.
Immagine in primo piano generata dall'autore utilizzando Midjourney