Sembra solo ieri (anche se sono passati quasi sei mesi) da quando OpenAI ha lanciato ChatGPT e ha iniziato a fare notizia.
ChatGPT ha raggiunto 100 milioni di utenti in tre mesi, rendendola l'applicazione in più rapida crescita da decenni. Per fare un confronto, TikTok ha impiegato nove mesi – e Instagram due anni e mezzo – per raggiungere lo stesso traguardo.
Ora, ChatGPT può utilizzare GPT-4 insieme alla navigazione in Internet e ai plug-in di marchi come Expedia, Zapier, Zillow e altri per rispondere alle richieste degli utenti.
Le grandi aziende tecnologiche come Microsoft hanno collaborato con OpenAI per creare soluzioni per i clienti basate sull'intelligenza artificiale. Google, Meta e altri stanno costruendo i loro modelli linguistici e prodotti AI.
Oltre 27.000 persone, tra cui amministratori delegati della tecnologia, professori, ricercatori e politici, hanno firmato una petizione per sospendere lo sviluppo dell'IA di sistemi più potenti di GPT-4.
Ora, la domanda potrebbe non essere se il governo degli Stati Uniti debba regolamentare l'IA, se non è già troppo tardi.
Di seguito sono riportati i recenti sviluppi nella regolamentazione dell'IA e come possono influenzare il futuro del progresso dell'IA.
Le agenzie federali si impegnano a combattere i pregiudizi
Quattro importanti agenzie federali statunitensi - il Consumer Financial Protection Bureau (CFPB), la Divisione per i diritti civili del Dipartimento di giustizia (DOJ-CRD), la Commissione per le pari opportunità di lavoro (EEOC) e la Federal Trade Commission (FTC) - hanno rilasciato una dichiarazione in merito il forte impegno a frenare i pregiudizi e la discriminazione nei sistemi automatizzati e nell'intelligenza artificiale.
Queste agenzie hanno sottolineato la loro intenzione di applicare le normative esistenti a queste tecnologie emergenti per garantire che rispettino i principi di equità, uguaglianza e giustizia.
- Il CFPB, responsabile della protezione dei consumatori nel mercato finanziario, ha ribadito che le leggi esistenti in materia di finanza dei consumatori si applicano a tutte le tecnologie, indipendentemente dalla loro complessità o novità. L'agenzia è stata trasparente nella sua posizione secondo cui la natura innovativa della tecnologia AI non può essere utilizzata come difesa per la violazione di queste leggi.
- DOJ-CRD, l'agenzia incaricata di salvaguardare dalla discriminazione in vari aspetti della vita, applica il Fair Housing Act ai servizi di screening degli inquilini basati su algoritmi. Ciò esemplifica il modo in cui le leggi esistenti sui diritti civili possono essere utilizzate per automatizzare i sistemi e l'intelligenza artificiale.
- L'EEOC, responsabile dell'applicazione delle leggi contro la discriminazione nell'occupazione, ha pubblicato una guida su come l'Americans with Disabilities Act si applica all'intelligenza artificiale e al software utilizzato per prendere decisioni sull'occupazione.
- La FTC, che protegge i consumatori da pratiche commerciali sleali, ha espresso preoccupazione per il potenziale degli strumenti di intelligenza artificiale di essere intrinsecamente prevenuti, imprecisi o discriminatori. Ha avvertito che l'implementazione dell'IA senza un'adeguata valutazione del rischio o la presentazione di affermazioni infondate sull'IA potrebbe essere vista come una violazione della legge FTC.
Ad esempio, il Center for Artificial Intelligence and Digital Policy ha presentato un reclamo alla FTC in merito al rilascio di GPT-4 da parte di OpenAI, un prodotto che "è parziale, ingannevole e rappresenta un rischio per la privacy e la sicurezza pubblica".
Il senatore interroga le società di intelligenza artificiale sulla sicurezza e sull'uso improprio
Il senatore degli Stati Uniti Mark R. Warner ha inviato lettere alle principali società di intelligenza artificiale, tra cui Anthropic, Apple, Google, Meta, Microsoft, Midjourney e OpenAI.
In questa lettera, Warner ha espresso preoccupazione per le considerazioni sulla sicurezza nello sviluppo e nell'uso di sistemi di intelligenza artificiale (AI). Ha chiesto ai destinatari della lettera di dare la priorità a queste misure di sicurezza nel loro lavoro.
Warner ha evidenziato una serie di rischi per la sicurezza specifici dell'IA, come problemi della catena di fornitura dei dati, attacchi di avvelenamento dei dati, esempi contraddittori e potenziale uso improprio o uso dannoso dei sistemi di intelligenza artificiale. Queste preoccupazioni sono state poste sullo sfondo della crescente integrazione dell'IA in vari settori dell'economia, come l'assistenza sanitaria e la finanza, che sottolineano la necessità di precauzioni di sicurezza.
La lettera poneva 16 domande sulle misure adottate per garantire la sicurezza dell'IA. Ha anche implicato la necessità di un certo livello di regolamentazione nel settore per prevenire effetti dannosi e garantire che l'IA non avanzi senza adeguate salvaguardie.
Alle aziende di intelligenza artificiale è stato chiesto di rispondere entro il 26 maggio 2023.
La Casa Bianca incontra i leader dell'IA
L'amministrazione Biden-Harris ha annunciato iniziative per promuovere l'innovazione responsabile nell'intelligenza artificiale (AI), proteggere i diritti dei cittadini e garantire la sicurezza.
Queste misure sono in linea con la spinta del governo federale a gestire i rischi e le opportunità associati all'IA.
La Casa Bianca mira a mettere le persone e le comunità al primo posto, promuovendo l'innovazione dell'IA per il bene pubblico e proteggendo la società, la sicurezza e l'economia.
I massimi funzionari dell'amministrazione, tra cui il vicepresidente Kamala Harris, hanno incontrato i leader di Alphabet, Anthropic, Microsoft e OpenAI per discutere di questo obbligo e della necessità di un'innovazione responsabile ed etica.
Nello specifico, hanno discusso dell'obbligo delle aziende di garantire la sicurezza dei prodotti LLM e AI prima della distribuzione pubblica.
Nuovi passi integrerebbero idealmente le ampie misure già adottate dall'amministrazione per promuovere l'innovazione responsabile, come la Carta dei diritti dell'IA, il Quadro di gestione del rischio dell'IA e i piani per una risorsa nazionale di ricerca sull'IA.
Sono state intraprese ulteriori azioni per proteggere gli utenti nell'era dell'IA, come un ordine esecutivo per eliminare i pregiudizi nella progettazione e nell'uso delle nuove tecnologie, inclusa l'IA.
La Casa Bianca ha osservato che FTC, CFPB, EEOC e DOJ-CRD si sono impegnati collettivamente a sfruttare la loro autorità legale per proteggere gli americani dai danni legati all'IA.
L'amministrazione ha anche affrontato i problemi di sicurezza nazionale relativi alla sicurezza informatica e alla biosicurezza dell'IA.
Le nuove iniziative includono 140 milioni di dollari in finanziamenti della National Science Foundation per sette istituti nazionali di ricerca sull'IA, valutazioni pubbliche dei sistemi di intelligenza artificiale generativa esistenti e nuove linee guida politiche dell'Office of Management and Budget sull'utilizzo dell'IA da parte del governo degli Stati Uniti.
La supervisione dell'udito dell'IA esplora la regolamentazione dell'IA
I membri della sottocommissione per la privacy, la tecnologia e la legge hanno tenuto un'audizione sulla supervisione dell'IA con membri di spicco della comunità dell'IA per discutere la regolamentazione dell'IA.
Avvicinarsi al regolamento con precisione
Christina Montgomery, Chief Privacy and Trust Officer di IBM, ha sottolineato che mentre l'intelligenza artificiale è notevolmente avanzata ed è ora parte integrante sia della sfera dei consumatori che di quella aziendale, la maggiore attenzione del pubblico che sta ricevendo richiede un'attenta valutazione del potenziale impatto sociale, inclusi pregiudizi e abusi.
Ha sostenuto il ruolo del governo nello sviluppo di un solido quadro normativo, proponendo l'approccio di "regolazione di precisione" di IBM, che si concentra su specifiche regole dei casi d'uso piuttosto che sulla tecnologia stessa, e ne ha delineato i componenti principali.
Montgomery ha anche riconosciuto le sfide dei sistemi di intelligenza artificiale generativa, sostenendo un approccio normativo basato sul rischio che non ostacoli l'innovazione. Ha sottolineato il ruolo cruciale delle aziende nell'implementazione responsabile dell'IA, descrivendo in dettaglio le pratiche di governance di IBM e la necessità di un comitato etico dell'AI in tutte le aziende coinvolte nell'IA.
Affrontare i potenziali effetti economici del GPT-4 e oltre
Sam Altman, CEO di OpenAI, ha sottolineato il profondo impegno dell'azienda per la sicurezza, la sicurezza informatica e le implicazioni etiche delle sue tecnologie AI.
Secondo Altman, l'azienda conduce incessanti test di penetrazione interni e di terze parti e controlli regolari dei suoi controlli di sicurezza. OpenAI, ha aggiunto, sta anche sperimentando nuove strategie per rafforzare i suoi sistemi di intelligenza artificiale contro le minacce informatiche emergenti.
Altman sembrava essere particolarmente preoccupato per gli effetti economici dell'IA sul mercato del lavoro, poiché ChatGPT potrebbe automatizzare alcuni lavori. Sotto la guida di Altman, OpenAI sta lavorando con gli economisti e il governo degli Stati Uniti per valutare questi impatti e ideare politiche per mitigare i potenziali danni.
Altman ha menzionato i loro sforzi proattivi nella ricerca di strumenti politici e programmi di supporto come Worldcoin che potrebbero attenuare il colpo dell'interruzione tecnologica in futuro, come la modernizzazione dei sussidi di disoccupazione e la creazione di programmi di assistenza ai lavoratori. (Un fondo in Italia, nel frattempo, ha recentemente riservato 30 milioni di euro per investire in servizi per i lavoratori più a rischio di spostamento dall'IA.)
Altman ha sottolineato la necessità di un'efficace regolamentazione dell'IA e ha promesso il continuo supporto di OpenAI nell'aiutare i responsabili politici. L'obiettivo dell'azienda, ha affermato Altman, è assistere nella formulazione di regolamenti che stimolino la sicurezza e consentano un ampio accesso ai vantaggi dell'IA.
Ha sottolineato l'importanza della partecipazione collettiva di varie parti interessate, delle strategie normative globali e della collaborazione internazionale per garantire un'evoluzione sicura e vantaggiosa della tecnologia AI.
Esplorare il potenziale per il danno dell'IA
Gary Marcus, professore di psicologia e scienze neurali alla New York University, ha espresso le sue crescenti preoccupazioni sul potenziale uso improprio dell'intelligenza artificiale, modelli linguistici particolarmente potenti e influenti come GPT-4.
Ha illustrato la sua preoccupazione mostrando come lui e un ingegnere del software hanno manipolato il sistema per inventare una narrazione completamente fittizia sugli alieni che controllano il Senato degli Stati Uniti.
Questo scenario illustrativo ha messo in luce il pericolo che i sistemi di IA fabbricassero storie in modo convincente, sollevando allarme sul potenziale utilizzo di tale tecnologia in attività dannose, come l'interferenza elettorale o la manipolazione del mercato.
Marcus ha evidenziato l'inaffidabilità intrinseca degli attuali sistemi di intelligenza artificiale, che può portare a gravi conseguenze per la società, dalla promozione di accuse infondate alla fornitura di consigli potenzialmente dannosi.
Un esempio è stato un chatbot open source che sembrava influenzare la decisione di una persona di togliersi la vita.
Marcus ha anche sottolineato l'avvento della "datocrazia", in cui l'intelligenza artificiale può modellare sottilmente le opinioni, forse superando l'influenza dei social media. Un altro sviluppo allarmante che ha portato all'attenzione è stato il rapido rilascio di estensioni AI, come i plug-in ChatGPT di OpenAI e il conseguente AutoGPT, che hanno accesso diretto a Internet, capacità di scrittura del codice e poteri di automazione potenziati, aumentando potenzialmente i problemi di sicurezza.
Marcus ha concluso la sua testimonianza con un appello per una più stretta collaborazione tra scienziati indipendenti, aziende tecnologiche e governi per garantire la sicurezza e l'uso responsabile della tecnologia AI. Ha avvertito che mentre l'intelligenza artificiale presenta opportunità senza precedenti, la mancanza di un'adeguata regolamentazione, l'irresponsabilità aziendale e l'inaffidabilità intrinseca potrebbero portarci in una "tempesta perfetta".
Possiamo regolamentare l'IA?
Man mano che le tecnologie di intelligenza artificiale spingono i confini, le richieste di regolamentazione continueranno a crescere.
In un clima in cui le partnership Big Tech sono in aumento e le applicazioni si stanno espandendo, suona un campanello d'allarme: è troppo tardi per regolamentare l'IA?
Le agenzie federali, la Casa Bianca e i membri del Congresso dovranno continuare a indagare sul panorama urgente, complesso e potenzialmente rischioso dell'IA, garantendo al tempo stesso che i promettenti progressi dell'IA continuino e che la competizione Big Tech non sia completamente regolata fuori dal mercato.
Immagine in primo piano: Katherine Welles/Shutterstock