La National Telecommunications and Information Administration (NTIA), una divisione del Dipartimento del Commercio degli Stati Uniti, ha chiesto un commento pubblico sulle strategie per incoraggiare la responsabilità nei sistemi affidabili di intelligenza artificiale (AI).
L'obiettivo era sollecitare il feedback delle parti interessate per formulare suggerimenti per un prossimo rapporto sui quadri di garanzia e responsabilità dell'IA. Questi suggerimenti potrebbero aver guidato i futuri regolamenti federali e non governativi.
La promozione di un'IA affidabile che sostenga i diritti umani e i principi democratici era uno dei principali obiettivi federali secondo la richiesta dell'NTIA. Tuttavia, sono rimaste delle lacune nel garantire che i sistemi di intelligenza artificiale fossero responsabili e rispettassero regole di intelligenza artificiale affidabili in materia di equità, sicurezza, privacy e trasparenza.
Meccanismi di responsabilità come audit, valutazioni d'impatto e certificazioni potrebbero offrire la garanzia che i sistemi di intelligenza artificiale aderiscano a criteri affidabili. Tuttavia, l'NTIA ha osservato che l'implementazione di un'effettiva responsabilità presentava ancora sfide e complessità.
NTIA ha discusso una serie di considerazioni sull'equilibrio tra obiettivi di intelligenza artificiale affidabili, ostacoli all'implementazione della responsabilità, complesse catene di approvvigionamento di intelligenza artificiale e catene del valore e difficoltà nella standardizzazione delle misurazioni.
Oltre 1.450 commenti sulla responsabilità dell'IA
I commenti sono stati accettati fino al 12 giugno per aiutare a plasmare il futuro rapporto dell'NTIA e orientare i potenziali sviluppi politici relativi alla responsabilità dell'IA.
Il numero di commenti ha superato i 1.450.
I commenti, che possono essere cercati utilizzando parole chiave, occasionalmente includono collegamenti ad articoli, lettere, documenti e azioni legali sul potenziale impatto dell'IA.
Le aziende tecnologiche rispondono all'NTIA
I commenti includevano il feedback delle seguenti aziende tecnologiche che si sforzano di sviluppare prodotti di intelligenza artificiale per il posto di lavoro.
Lettera di OpenAI all'NTIA
Nella lettera di OpenAI, ha accolto con favore l'inquadramento della questione da parte dell'NTIA come un "ecosistema" di necessarie misure di responsabilità dell'IA per garantire un'intelligenza artificiale affidabile.
I ricercatori di OpenAI ritenevano che un ecosistema maturo di responsabilità dell'IA sarebbe costituito da elementi di responsabilità generale che si applicano ampiamente a domini ed elementi verticali personalizzati per contesti e applicazioni specifici.
OpenAI si è concentrato sullo sviluppo di modelli di base, modelli di intelligenza artificiale ampiamente applicabili che apprendono da set di dati estesi.
Considera la necessità di adottare un approccio incentrato sulla sicurezza a questi modelli, indipendentemente dai settori particolari in cui potrebbero essere impiegati.
OpenAI ha dettagliato diversi approcci attuali alla responsabilità dell'IA. Pubblica "schede di sistema" per offrire trasparenza su problemi di prestazioni significativi e rischi di nuovi modelli.
Conduce test qualitativi "red teaming" per sondare le capacità e le modalità di guasto. Esegue valutazioni quantitative per varie capacità e rischi. E ha politiche di utilizzo chiare che vietano usi dannosi insieme a meccanismi di applicazione.
OpenAI ha riconosciuto diverse significative sfide irrisolte, inclusa la valutazione di capacità potenzialmente pericolose man mano che le capacità del modello continuano a evolversi.
Ha discusso questioni aperte relative a valutazioni indipendenti dei suoi modelli da parte di terzi. E ha suggerito che i requisiti di registrazione e licenza potrebbero essere necessari per i futuri modelli di fondazione con rischi significativi.
Sebbene le attuali pratiche di OpenAI si concentrino su trasparenza, test e politiche, la società è sembrata disponibile a collaborare con i responsabili politici per sviluppare misure di responsabilità più solide. Ha suggerito che potrebbero essere necessari quadri normativi su misura per modelli di IA competenti.
Nel complesso, la risposta di OpenAI rifletteva la sua convinzione che una combinazione di sforzi di autoregolamentazione e politiche governative avrebbe svolto un ruolo fondamentale nello sviluppo di un efficace ecosistema di responsabilità dell'IA.
Lettera di Microsoft all'NTIA
Nella sua risposta, Microsoft ha affermato che la responsabilità dovrebbe essere un elemento fondamentale dei framework per affrontare i rischi posti dall'IA massimizzandone i benefici. Le aziende che sviluppano e utilizzano l'intelligenza artificiale dovrebbero essere responsabili dell'impatto dei loro sistemi e le istituzioni di supervisione necessitano dell'autorità, delle conoscenze e degli strumenti per esercitare una supervisione adeguata.
Microsoft ha delineato le lezioni del suo programma Responsible AI, che mira a garantire che le macchine rimangano sotto il controllo umano. La responsabilità è integrata nella loro struttura di governance e nello standard Responsible AI e include:
- Condurre valutazioni d'impatto per identificare e affrontare potenziali danni.
- Supervisione aggiuntiva per i sistemi ad alto rischio.
- Documentazione per garantire che i sistemi siano adatti allo scopo.
- Pratiche di governance e gestione dei dati.
- Avanzamento della direzione e del controllo umano.
- Microsoft ha descritto come conduce il Red Teaming per scoprire potenziali danni e guasti e pubblica note di trasparenza per i suoi servizi di intelligenza artificiale. Il nuovo motore di ricerca Bing di Microsoft applica questo approccio di Responsible AI.
Microsoft ha formulato sei raccomandazioni per promuovere la responsabilità:
- Basati sull'AI Risk Management Framework del NIST per accelerare l'uso di meccanismi di responsabilità come valutazioni d'impatto e red teaming, in particolare per i sistemi di intelligenza artificiale ad alto rischio.
- Sviluppa un quadro legale e normativo basato sullo stack tecnologico AI, compresi i requisiti di licenza per i modelli di base e i fornitori di infrastrutture.
- Promuovere la trasparenza come fattore abilitante della responsabilità, ad esempio attraverso un registro dei sistemi di intelligenza artificiale ad alto rischio.
- Investi nello sviluppo di capacità affinché legislatori e autorità di regolamentazione stiano al passo con gli sviluppi dell'IA.
- Investi nella ricerca per migliorare i benchmark di valutazione dell'IA, la spiegabilità, l'interazione uomo-computer e la sicurezza.
- Sviluppa e allineati agli standard internazionali per sostenere un ecosistema di garanzia, inclusi gli standard ISO AI e gli standard di provenienza dei contenuti.
- Nel complesso, Microsoft sembrava pronta a collaborare con le parti interessate per sviluppare e implementare approcci efficaci alla responsabilità dell'IA.
Microsoft, nel complesso, sembrava pronta a collaborare con le parti interessate per sviluppare e implementare approcci efficaci alla responsabilità dell'IA.
Lettera di Google all'NTIA
La risposta di Google ha accolto con favore la richiesta di NTIA di commenti sulle politiche di responsabilità dell'IA. Ha riconosciuto la necessità sia dell'autoregolamentazione che della governance per ottenere un'IA affidabile.
Google ha evidenziato il proprio lavoro sulla sicurezza e l'etica dell'IA, come una serie di principi dell'IA incentrati su equità, sicurezza, privacy e trasparenza. Google ha anche implementato internamente pratiche di Responsible AI, inclusa la conduzione di valutazioni del rischio e valutazioni dell'equità.
Google ha approvato l'utilizzo dei quadri normativi esistenti, ove applicabile, e degli interventi basati sul rischio per l'IA ad alto rischio. Ha incoraggiato l'utilizzo di un approccio collaborativo e basato sul consenso per lo sviluppo di norme tecniche.
Google ha convenuto che meccanismi di responsabilità come audit, valutazioni e certificazioni potrebbero fornire la garanzia di sistemi di intelligenza artificiale affidabili. Ma ha notato che questi meccanismi devono affrontare sfide nell'implementazione, inclusa la valutazione della moltitudine di aspetti che incidono sui rischi di un sistema di intelligenza artificiale.
Google ha raccomandato di concentrare i meccanismi di responsabilità sui principali fattori di rischio e ha suggerito di utilizzare approcci mirati ai modi più probabili in cui i sistemi di intelligenza artificiale potrebbero avere un impatto significativo sulla società.
Google ha raccomandato un modello "hub-and-spoke" di regolamentazione dell'IA, con regolatori settoriali che sovrintendono all'implementazione dell'IA con la guida di un'agenzia centrale come il NIST. Ha sostenuto il chiarimento delle modalità di applicazione delle leggi esistenti all'IA e l'incoraggiamento di misure proporzionali di responsabilità basate sul rischio per l'IA ad alto rischio.
Come altri, Google credeva che sarebbe stato necessario un mix di autoregolamentazione, standard tecnici e politiche governative limitate e basate sul rischio per promuovere la responsabilità dell'IA.
Lettera Antropica All'NTIA
La risposta di Anthropic ha descritto la convinzione che un solido ecosistema di responsabilità dell'IA richieda meccanismi su misura per i modelli di intelligenza artificiale. Ha identificato diverse sfide, tra cui la difficoltà di valutare rigorosamente i sistemi di intelligenza artificiale e di accedere alle informazioni sensibili necessarie per gli audit senza compromettere la sicurezza.
Finanziamenti a sostegno antropico per:
- Valutazioni del modello: le valutazioni attuali sono un mosaico incompleto e richiedono competenze specialistiche. Ha raccomandato di standardizzare le valutazioni delle capacità incentrate su rischi come l'inganno e l'autonomia.
- Ricerca sull'interpretabilità: sovvenzioni e finanziamenti per la ricerca sull'interpretabilità potrebbero consentire modelli più trasparenti e comprensibili. Tuttavia, le normative che richiedono l'interpretazione sono attualmente irrealizzabili.
- Pre-registrazione di grandi corse di addestramento dell'IA: gli sviluppatori di IA dovrebbero segnalare grandi corse di addestramento alle autorità di regolamentazione per informarle di nuovi rischi con adeguate protezioni di riservatezza.
- Red teaming esterno: test contraddittorio obbligatorio dei sistemi di intelligenza artificiale prima del rilascio, tramite un'organizzazione centralizzata come il NIST o tramite l'accesso dei ricercatori. Tuttavia, i talenti del team rosso attualmente risiedono all'interno di laboratori di intelligenza artificiale privati.
- Revisori con competenza tecnica, consapevolezza della sicurezza e flessibilità: i revisori hanno bisogno di una profonda esperienza di apprendimento automatico, prevenendo fughe di notizie o hacking, ma devono anche operare all'interno di vincoli che promuovano la competitività.
- Anthropic ha raccomandato di definire misure di responsabilità basate sulle capacità di un modello e sui rischi dimostrati, valutati attraverso valutazioni mirate delle capacità. Ha suggerito di chiarire i quadri di proprietà della proprietà intellettuale per l'intelligenza artificiale per consentire licenze eque e fornire indicazioni sulle questioni antitrust per consentire collaborazioni sulla sicurezza.
- Nel complesso, Anthropic ha sottolineato le difficoltà di valutare rigorosamente e accedere alle informazioni sui sistemi IA avanzati a causa della loro natura sensibile. Ha sostenuto che le valutazioni delle capacità di finanziamento, la ricerca sull'interpretabilità e l'accesso alle risorse computazionali sono fondamentali per un efficace ecosistema di responsabilità dell'IA a vantaggio della società.
Cosa aspettarsi dopo
Le risposte alla richiesta di commento dell'NTIA mostrano che mentre le aziende di intelligenza artificiale riconoscono l'importanza della responsabilità, ci sono ancora domande e sfide aperte sull'implementazione e il ridimensionamento efficaci dei meccanismi di responsabilità.
Indicano inoltre che sia gli sforzi di autoregolamentazione delle aziende che le politiche del governo svolgeranno un ruolo nello sviluppo di un solido ecosistema di responsabilità dell'IA.
Andando avanti, il rapporto NTIA dovrebbe formulare raccomandazioni per far progredire l'ecosistema di responsabilità dell'IA sfruttando e basandosi sugli sforzi di autoregolamentazione esistenti, standard tecnici e politiche governative. Il contributo delle parti interessate attraverso il processo dei commenti contribuirà probabilmente a dare forma a tali raccomandazioni.
Tuttavia, l'implementazione delle raccomandazioni in cambiamenti politici concreti e pratiche del settore che possono trasformare il modo in cui l'IA viene sviluppata, implementata e supervisionata richiederà il coordinamento tra agenzie governative, aziende tecnologiche, ricercatori e altre parti interessate.
Il percorso per maturare la responsabilità dell'IA promette di essere lungo e difficile. Ma questi primi passi mostrano che c'è slancio verso il raggiungimento di tale obiettivo.
Immagine in primo piano: EQRoy/Shutterstock