Google ha pubblicato un documento sull'agenda politica dell'IA che delinea una visione per un'implementazione responsabile dell'IA e suggerimenti su come i governi dovrebbero regolamentare e incoraggiare il settore.
Agenda politica di Google AI
Google ha annunciato la pubblicazione di un'agenda politica sull'IA con suggerimenti per lo sviluppo e le normative responsabili dell'IA.
Il documento rileva che le politiche governative sull'IA si stanno formando in modo indipendente in tutto il mondo e chiede un'agenda coerente per l'IA che trovi un equilibrio tra la protezione dagli esiti dannosi e l'allontanamento dall'innovazione.
Google scrive:
“Ottenere l'innovazione dell'IA nel modo giusto richiede un quadro politico che garantisca la responsabilità e consenta la fiducia.
Abbiamo bisogno di una strategia AI olistica incentrata su:
(1) sbloccare le opportunità attraverso l'innovazione e la crescita economica inclusiva;
(2) garantire la responsabilità e favorire la fiducia; E
(3) proteggere la sicurezza globale.
Un'agenda coerente per l'IA deve portare avanti tutti e tre gli obiettivi, non uno a spese degli altri".
L'agenda delle politiche sull'IA di Google ha tre obiettivi principali:
Opportunità
Questa parte dell'agenda chiede ai governi di incoraggiare lo sviluppo dell'IA investendo in:
- Ricerca e sviluppo
- Creazione di un ambiente legale senza attriti che liberi lo sviluppo dell'IA
- Pianificazione del supporto educativo per la formazione di una forza lavoro predisposta per l'IA
In breve, l'agenda chiede ai governi di togliersi di mezzo e sostenere l'IA per aiutare a far progredire la tecnologia.
L'agenda politica osserva:
"I paesi hanno storicamente eccelso quando massimizzano l'accesso alla tecnologia e la sfruttano per raggiungere importanti obiettivi pubblici, piuttosto che cercare di limitare il progresso tecnologico".
Responsabilità
L'agenda politica di Google sostiene che l'implementazione responsabile dell'IA dipenderà da una combinazione di leggi governative, autoregolamentazione aziendale e input di organizzazioni non governative.
L'agenda politica raccomanda:
“Alcune sfide possono essere affrontate attraverso la regolamentazione, assicurando che le tecnologie AI siano sviluppate e implementate in linea con pratiche di settore responsabili e standard internazionali.
Altri richiederanno una ricerca fondamentale per comprendere meglio i vantaggi e i rischi dell'IA e come gestirli, nonché sviluppare e implementare nuove innovazioni tecniche in aree come l'interpretabilità e il watermarking.
E altri potrebbero richiedere nuove organizzazioni e istituzioni”.
L'ordine del giorno raccomanda inoltre:
“Incoraggiare l'adozione di approcci comuni alla regolamentazione e alla governance dell'IA, nonché un lessico comune, basato sul lavoro dell'OCSE. “
Cos'è l'OCSE?
L'OCSE è l'Osservatorio politico dell'OCSE.AI, che è sostenuto da partner aziendali e governativi.
Le parti interessate del governo dell'OCSE includono il Dipartimento di Stato degli Stati Uniti e il Dipartimento del Commercio degli Stati Uniti.
Le parti interessate aziendali sono costituite da organizzazioni come la Patrick J McGovern Foundation, il cui gruppo dirigente è composto da investitori della Silicon Valley e dirigenti tecnologici che hanno un interesse personale nel modo in cui la tecnologia è regolamentata.
Google sostiene una minore regolamentazione aziendale
La raccomandazione politica di Google sulla regolamentazione è che meno regolamentazione è meglio e che la trasparenza aziendale potrebbe ostacolare l'innovazione.
Raccomanda:
“Concentrare le normative sulle applicazioni a più alto rischio può anche scoraggiare l'innovazione nelle applicazioni di maggior valore in cui l'IA può offrire i vantaggi più significativi.
La trasparenza, che può supportare la responsabilità e l'equità, può avere un costo in termini di accuratezza, sicurezza e privacy.
Le democrazie devono valutare attentamente come trovare i giusti equilibri”.
Quindi, in seguito, raccomanda di prendere in considerazione l'efficienza e la produttività:
“Richiedere alle agenzie di regolamentazione di considerare i compromessi tra i diversi obiettivi politici, tra cui il miglioramento dell'efficienza e della produttività, la trasparenza, l'equità, la privacy, la sicurezza e la resilienza. “
C'è sempre stato, e ci sarà sempre, un tiro alla fune tra le entità aziendali che lottano contro la supervisione e le autorità di regolamentazione del governo che cercano di proteggere il pubblico.
L'intelligenza artificiale può risolvere i problemi più difficili delle discipline umanistiche e fornire vantaggi senza precedenti. Google ha ragione quando dovrebbe essere trovato un equilibrio tra gli interessi del pubblico e le aziende.
Raccomandazioni sensate
Il documento contiene raccomandazioni sensate, come suggerire che le agenzie di regolamentazione esistenti sviluppino linee guida specifiche per l'IA e prendano in considerazione l'adozione dei nuovi standard ISO attualmente in fase di sviluppo (come ISO 42001).
L'agenda politica raccomanda:
"a) Indirizzare le autorità di regolamentazione settoriali ad aggiornare i regimi di supervisione e applicazione esistenti da applicare ai sistemi di IA, anche su come le autorità esistenti si applicano all'uso dell'IA e su come dimostrare la conformità di un sistema di IA con i regolamenti esistenti utilizzando standard internazionali di consenso multilaterale come il Serie ISO 42001.
b) Incaricare le agenzie di regolamentazione di pubblicare relazioni periodiche che identifichino le lacune di capacità che rendono difficile sia per le entità interessate conformarsi alle normative sia per le autorità di regolamentazione condurre un controllo efficace.
In un certo senso, quelle raccomandazioni stanno affermando l'ovvio, è un dato di fatto che le agenzie svilupperanno linee guida in modo che le autorità di regolamentazione sappiano come regolamentare.
Nascosto in quella dichiarazione c'è la raccomandazione della ISO 42001 come modello di come dovrebbero essere gli standard AI.
Va notato che lo standard ISO 42001 è sviluppato dal comitato ISO/IEC per l'Intelligenza Artificiale, presieduto da un dirigente tecnologico ventennale della Silicon Valley e da altri del settore tecnologico.
IA e sicurezza
Questa è la parte che presenta un vero pericolo derivante dall'uso dannoso per creare disinformazione e disinformazione, nonché danni basati su cyber.
Google delinea le sfide:
"La nostra sfida è massimizzare i potenziali benefici dell'IA per la sicurezza e la stabilità globali, impedendo allo stesso tempo agli attori delle minacce di sfruttare questa tecnologia per scopi dannosi".
E poi offre una soluzione:
"I governi devono investire contemporaneamente in ricerca e sviluppo e accelerare l'adozione dell'IA pubblica e privata, controllando al contempo la proliferazione di strumenti che potrebbero essere oggetto di abusi da parte di malintenzionati".
Tra le raccomandazioni ai governi per combattere le minacce basate sull'IA:
- Sviluppare modi per identificare e prevenire le interferenze elettorali
- Condividere informazioni sulle vulnerabilità della sicurezza
- Sviluppare un quadro di controllo del commercio internazionale per trattare con entità impegnate nella ricerca e nello sviluppo di IA che minacciano la sicurezza globale.
Ridurre la burocrazia e aumentare l'adozione dell'IA da parte del governo
Il documento sostiene poi la razionalizzazione dell'adozione dell'IA da parte del governo, compresi maggiori investimenti in essa.
"Riformare le politiche di acquisizione del governo per trarre vantaggio e promuovere l'IA leader a livello mondiale...
Esamina le barriere istituzionali e burocratiche che impediscono ai governi di abbattere i silos di dati e adotta la migliore governance dei dati per sfruttare tutta la potenza dell'IA.
Sfrutta le informazioni sui dati attraverso il teaming uomo-macchina, creando team agili con le competenze per costruire/adattare/sfruttare rapidamente sistemi di intelligenza artificiale che non richiedono più lauree in informatica…”
L'agenda politica dell'IA di Google
L'agenda politica fornisce suggerimenti ponderati che i governi di tutto il mondo devono prendere in considerazione quando formulano regolamenti sull'uso dell'IA.
L'intelligenza artificiale è capace di molte scoperte positive nella scienza e nella medicina, scoperte che possono fornire soluzioni al cambiamento climatico, curare malattie e prolungare la vita umana.
In un certo senso è un peccato che i primi prodotti AI rilasciati nel mondo siano le relativamente banali applicazioni ChatGPT e Dall-E che fanno ben poco a beneficio dell'umanità.
I governi stanno cercando di capire l'intelligenza artificiale e come regolarla mentre queste tecnologie vengono adottate in tutto il mondo.
Curiosamente, l'intelligenza artificiale open source, la versione più consequenziale, viene menzionata solo una volta.
L'unico contesto in cui viene affrontato l'open source è nelle raccomandazioni per affrontare l'uso improprio dell'IA:
"Chiarire la potenziale responsabilità per uso improprio / abuso di sistemi di intelligenza artificiale sia generici che specializzati (compresi i sistemi open source, a seconda dei casi) da parte di vari partecipanti: ricercatori e autori, creatori, implementatori e utenti finali".
Dato come si dice che Google sia spaventato e creda di essere già sconfitto dall'IA open source, è curioso come l'IA open source sia menzionata solo nel contesto dell'uso improprio della tecnologia.
L'agenda delle norme sull'intelligenza artificiale di Google riflette le legittime preoccupazioni per l'eccessiva regolamentazione e le regole incoerenti imposte in tutto il mondo.
Ma le organizzazioni che l'agenda politica cita come aiutanti a sviluppare gli standard e le normative del settore sono piene di addetti ai lavori della Silicon Valley. Ciò solleva interrogativi su quali interessi riflettono gli standard e i regolamenti.
L'agenda politica comunica con successo la necessità e l'urgenza di sviluppare normative significative ed eque per prevenire esiti dannosi consentendo allo stesso tempo l'innovazione vantaggiosa per andare avanti.
Leggi l'articolo di Google sull'agenda politica:
Un'agenda politica per il progresso responsabile dell'IA: opportunità, responsabilità, sicurezza
Leggi l'agenda politica dell'IA stessa (PDF)
Un'agenda politica per un progresso responsabile nell'intelligenza artificiale
Immagine in primo piano di Shutterstock/Shaheerrr