Il recente divieto di ChatGPT in Italia è solo una delle tante potenziali sfide legali che OpenAI deve affrontare.
Mentre l'Unione Europea lavora per approvare un Artificial Intelligence Act, gli Stati Uniti definiscono una Carta dei diritti dell'IA e il Regno Unito raccomanda alle agenzie esistenti di regolamentare l'IA, gli utenti di ChatGPT hanno presentato reclami a livello globale contro OpenAI per potenziali problemi di sicurezza.
OpenAI e problemi di sicurezza globale
Il Center for AI and Digital Policy ha presentato un reclamo alla Federal Trade Commission per impedire a OpenAI di sviluppare nuovi modelli di ChatGPT fino a quando non saranno in atto barriere di sicurezza.
Il Garante italiano ha avviato un'indagine su OpenAI su una recente violazione dei dati e la mancanza di verifica dell'età per proteggere gli utenti più giovani da contenuti di IA generativa inappropriati durante la registrazione.
La Commissione irlandese per la protezione dei dati prevede di coordinarsi con il Garante italiano e la Commissione europea per la protezione dei dati per determinare se ChatGPT abbia violato le leggi sulla privacy.
Secondo Reuters, le autorità di regolamentazione della privacy in Svezia e Spagna non hanno in programma di indagare su ChatGPT ora, ma possono farlo in futuro se gli utenti presentano reclami contro la tecnologia AI.
E questi sono solo alcuni dei recenti reclami, indagini e commenti di vari paesi sulla responsabilità delle società di intelligenza artificiale.
Nel frattempo, in Germania, Ulrich Kelber, portavoce del Commissario federale per la protezione dei dati della regione, ha affermato che potrebbe seguire un divieto simile a quelli di altre nazioni se OpenAI viola il GDPR o politiche simili.
Tuttavia, Volker Wissing, ministro dei trasporti e delle infrastrutture digitali della Germania, ha indicato che un divieto non è l'approccio migliore.
"Non abbiamo bisogno di un divieto delle applicazioni AI, ma di modi per garantire valori come democrazia e trasparenza", afferma Wissing.
Anche il Canada sembra seguire l'esempio dopo che il suo Office of the Privacy Commissioner ha avviato un'indagine su un reclamo contro ChatGPT che raccoglieva dati personali senza consenso.
E in Francia, Jean-Noël Barrot, ministro per la transizione digitale e le telecomunicazioni, ha commentato l'ondata di entusiasmo per l'IA, seguita dalla paura dell'IA. Il piano del paese, a quanto pare, è quello di padroneggiare la tecnologia dell'IA e sviluppare modelli e tecnologie che sostengano i valori francesi.
I paesi vieteranno permanentemente ChatGPT?
OpenAI ha recentemente pubblicato una FAQ per gli utenti italiani e ha ribadito il proprio impegno nella creazione di sistemi sicuri, accurati e privati.
Ma quali sono le possibilità che le indagini contro OpenAI si traducano in un bando permanente della sua tecnologia dall'Italia e da altri paesi?
Considerando che un giudice in Colombia ha recentemente utilizzato ChatGPT per assistere in una sentenza del tribunale e un altro in India lo ha utilizzato per decidere sulla cauzione, OpenAI ha alcune probabilità a suo favore.
ChatGPT+ con il modello GPT-4 offre punti sorprendentemente equilibrati sull'impatto della sua tecnologia e sui rischi che pone.
In risposta alla richiesta "Un paese come l'Italia dovrebbe vietare ChatGPT per problemi di gestione dei dati?", ChatGPT+ risponde:
“Privacy dei dati: è essenziale che i sistemi di intelligenza artificiale rispettino le normative sulla protezione dei dati, come il regolamento generale sulla protezione dei dati (GDPR) dell'UE. Garantire che ChatGPT segua queste regole e rispetti la privacy degli utenti è fondamentale. In caso di dubbi sulla gestione dei dati, varrebbe la pena verificare se OpenAI è conforme alle normative necessarie".
La risposta continua con una panoramica dei vantaggi, dell'etica e dei pregiudizi, della competitività e delle alternative dell'IA.
Screenshot da ChatGPT, aprile 2023
Naturalmente, se un paese non ha accesso a ChatGPT, alcuni utenti possono accedervi utilizzando un servizio di rete privata virtuale (VPN). Google Trends mostra che l'Italia ha avuto un picco nelle ricerche di VPN all'inizio di aprile, in coincidenza con il divieto di ChatGPT.
Le azioni legali contro la tecnologia OpenAI possono influenzare gli utenti?
Gli utenti di OpenAI sono legalmente responsabili per i problemi derivanti dall'uso e dall'output dei suoi strumenti? Dipende, secondo i Termini di utilizzo di OpenAI.
Se gli utenti violano i termini o le politiche di OpenAI durante l'utilizzo di strumenti come ChatGPT o l'API, potrebbero essere responsabili della propria difesa.
OpenAI non garantisce che i suoi servizi funzioneranno sempre come previsto o che determinati contenuti (input e output di uno strumento di intelligenza artificiale generativa) siano sicuri, rilevando che non sarà ritenuta responsabile per tali risultati.
La maggior parte delle offerte di OpenAI per risarcire gli utenti per i danni causati dai suoi strumenti è l'importo che l'utente ha pagato per i servizi nell'ultimo anno, o $ 100, assumendo che non si applichino altre leggi regionali.
Altre cause legali contro l'intelligenza artificiale
I casi di cui sopra sono solo la punta dell'iceberg legale dell'IA. OpenAI e i suoi colleghi devono affrontare ulteriori problemi legali, inclusi i seguenti.
- Un sindaco in Australia può citare in giudizio OpenAI per diffamazione per informazioni inesatte su di lui fornite da ChatGPT.
- GitHub Copilot deve affrontare un'azione legale collettiva sui diritti legali dei creatori della codifica open source nei dati di formazione di Copilot.
- Stability AI, DeviantArt e Midjourney affrontano un'azione legale collettiva per l'uso di StableDiffusion, che ha utilizzato opere d'arte protette da copyright nei suoi dati di addestramento.
- Getty Images ha avviato un procedimento legale contro Stability AI per l'utilizzo di contenuti protetti da copyright di Getty Images nei dati di addestramento.
Ogni caso ha il potenziale per scuotere il futuro dello sviluppo dell'IA.
Foto di presentazione: Giulio Benzin/Shutterstock