Il CEO di OpenAI Sam Altman ha risposto a una richiesta della Federal Trade Commission nell'ambito di un'indagine per determinare se la società "si è impegnata in pratiche sleali o ingannevoli" relative alla privacy, alla sicurezza dei dati e ai rischi di danni ai consumatori, in particolare legati alla reputazione.
è molto deludente vedere che la richiesta della FTC inizia con una fuga di notizie e non aiuta a creare fiducia.
Detto questo, per noi è estremamente importante che la nostra tecnologia sia sicura e pro-consumatore e siamo fiduciosi di rispettare la legge. ovviamente lavoreremo con la FTC.
— Sam Altman (@sama) 13 luglio 2023
La FTC ha richiesto informazioni ad OpenAI risalenti al giugno 2020, come rivelato in un documento trapelato ottenuto dal Washington Post.
Screenshot dal Washington Post, luglio 2023
L'oggetto dell'indagine: OpenAI ha violato la Sezione 5 della legge FTC?
La documentazione che OpenAI deve fornire dovrebbe includere dettagli sulla formazione, il perfezionamento, il rafforzamento del modello linguistico di grandi dimensioni (LLM) attraverso il feedback umano, l'affidabilità della risposta e le politiche e le pratiche relative alla privacy, alla sicurezza e alla mitigazione del rischio dei consumatori.
siamo trasparenti sui limiti della nostra tecnologia, soprattutto quando falliamo. e la nostra struttura a profitti limitati significa che non siamo incentivati a ottenere rendimenti illimitati.
— Sam Altman (@sama) 13 luglio 2023
La crescente preoccupazione della FTC per l'IA generativa
L'indagine sulle pratiche di un'importante azienda di intelligenza artificiale non è una sorpresa. L'interesse della FTC per i rischi dell'IA generativa è cresciuto da quando ChatGPT è diventato popolare.
Attenzione alla tecnologia decisionale automatizzata
Nell'aprile 2021, la FTC ha pubblicato una guida sull'intelligenza artificiale (AI) e sugli algoritmi, avvertendo le aziende di garantire che i loro sistemi di intelligenza artificiale siano conformi alle leggi sulla protezione dei consumatori.
Ha notato la sezione 5 della legge FTC, la legge Fair Credit Reporting e la legge sulle pari opportunità di credito come leggi importanti per gli sviluppatori e gli utenti di intelligenza artificiale.
FTC ha avvertito che gli algoritmi basati su dati distorti o logica errata potrebbero portare a risultati discriminatori, anche se non intenzionali.
La FTC ha delineato le migliori pratiche per lo sviluppo etico dell'IA sulla base della sua esperienza nell'applicazione delle leggi contro le pratiche sleali, l'inganno e la discriminazione.
Le raccomandazioni includono i sistemi di test per i pregiudizi, l'abilitazione di audit indipendenti, la limitazione delle affermazioni di marketing esagerate e la valutazione del danno sociale rispetto ai benefici.
"Se il tuo algoritmo si traduce in una discriminazione del credito nei confronti di una classe protetta, potresti trovarti di fronte a un reclamo per presunte violazioni dell'FTC Act e dell'ECOA", avverte la guida.
AI sotto controllo
La FTC ha ricordato alle società di intelligenza artificiale la sua guida sull'IA dal 2021 in merito a dichiarazioni di marketing esagerate o prive di fondamento relative alle capacità dell'IA.
Nel post del febbraio 2023, l'organizzazione ha messo in guardia gli esperti di marketing dal farsi travolgere dall'entusiasmo per l'IA e dal fare promesse che i loro prodotti non possono mantenere.
Problemi comuni citati: affermare che l'IA può fare più di quanto consentito dalla tecnologia attuale, fare confronti non supportati con prodotti non IA e non testare rischi e pregiudizi.
La FTC ha sottolineato che il marketing falso o ingannevole costituisce una condotta illegale indipendentemente dalla complessità della tecnologia.
Il promemoria è arrivato poche settimane dopo che ChatGPT di OpenAI ha raggiunto 100 milioni di utenti.
Anche la FTC ha pubblicato un annuncio di lavoro per tecnologi in questo periodo, compresi quelli con esperienza nell'intelligenza artificiale, per supportare indagini, iniziative politiche e ricerche sulla protezione dei consumatori e sulla concorrenza nel settore tecnologico.
Deepfake e inganno
Circa un mese dopo, a marzo, la FTC ha avvertito che strumenti di intelligenza artificiale generativa come chatbot e deepfake potrebbero facilitare frodi diffuse se implementati in modo irresponsabile.
Ha avvertito gli sviluppatori e le aziende che utilizzano media sintetici e intelligenza artificiale generativa di considerare i rischi intrinseci di un uso improprio.
L'agenzia ha affermato che i cattivi attori possono sfruttare i contenuti realistici ma falsi di questi sistemi di intelligenza artificiale per truffe di phishing, furto di identità, estorsioni e altri danni.
Sebbene alcuni usi possano essere vantaggiosi, la FTC ha esortato le aziende a valutare la produzione o la vendita di tali strumenti di intelligenza artificiale dato il prevedibile sfruttamento criminale.
La FTC ha consigliato alle aziende che continuano a sviluppare o utilizzare l'IA generativa di prendere solide precauzioni per prevenire gli abusi.
Ha anche messo in guardia contro l'uso di media sintetici nel marketing fuorviante e la mancata divulgazione quando i consumatori interagiscono con i chatbot di intelligenza artificiale rispetto a persone reali.
L'intelligenza artificiale diffonde software dannoso
Ad aprile, la FTC ha rivelato come i criminali informatici abbiano sfruttato l'interesse per l'intelligenza artificiale per diffondere malware attraverso annunci falsi.
Gli annunci fasulli promuovevano strumenti di intelligenza artificiale e altri software sui social media e sui motori di ricerca.
Facendo clic su questi annunci, gli utenti vengono indirizzati a siti clonati che scaricano malware o sfruttano backdoor per infettare dispositivi senza essere rilevati. Le informazioni rubate sono state poi vendute sul dark web o utilizzate per accedere agli account online delle vittime.
Per evitare di essere hackerato, la FTC ha consigliato di non fare clic sugli annunci software.
Se infetti, gli utenti devono aggiornare gli strumenti di sicurezza e i sistemi operativi, quindi seguire i passaggi per rimuovere il malware o ripristinare gli account compromessi.
La FTC ha avvertito il pubblico di diffidare dei criminali informatici sempre più sofisticati nella diffusione di malware attraverso le reti pubblicitarie.
Le agenzie federali si uniscono per affrontare la regolamentazione dell'IA
Verso la fine di aprile, quattro agenzie federali – il Consumer Financial Protection Bureau (CFPB), la Divisione per i diritti civili del Dipartimento di giustizia (DOJ), la Commissione per le pari opportunità di lavoro (EEOC) e la FTC – hanno rilasciato una dichiarazione su come avrebbero monitorare lo sviluppo dell'IA e far rispettare le leggi contro la discriminazione e i pregiudizi nei sistemi automatizzati.
Le agenzie hanno affermato l'autorità sull'intelligenza artificiale in base alle leggi esistenti in materia di diritti civili, prestito equo, pari opportunità e protezione dei consumatori.
Insieme, hanno avvertito che i sistemi di intelligenza artificiale potrebbero perpetuare pregiudizi illeciti a causa di dati imperfetti, modelli opachi e scelte di progettazione improprie.
La partnership mirava a promuovere l'innovazione responsabile dell'IA che aumenta l'accesso, la qualità e l'efficienza dei consumatori senza violare le protezioni di lunga data.
IA e fiducia dei consumatori
A maggio, la FTC ha messo in guardia le aziende dall'utilizzo di nuovi strumenti di intelligenza artificiale generativa come i chatbot per manipolare ingiustamente le decisioni dei consumatori.
Dopo aver descritto gli eventi del film Ex Machina, la FTC ha affermato che la persuasione simile a quella umana dei chatbot di intelligenza artificiale potrebbe guidare le persone verso scelte dannose su finanze, salute, istruzione, alloggio e lavoro.
Sebbene non necessariamente intenzionali, la FTC ha affermato che gli elementi di design che sfruttano la fiducia umana nelle macchine per ingannare i consumatori costituiscono pratiche sleali e ingannevoli ai sensi della legge FTC.
L'agenzia ha consigliato alle aziende di evitare l'eccessiva antropomorfizzazione dei chatbot e di garantire la divulgazione delle promozioni a pagamento intrecciate nelle interazioni AI.
Con l'aumento dell'adozione dell'IA generativa, l'allerta FTC invita le aziende a valutare in modo proattivo gli impatti sociali a valle.
Quegli strumenti affrettati sul mercato senza un'adeguata revisione etica o protezioni rischierebbero l'azione della FTC sul conseguente danno per i consumatori.
Un'opinione sui rischi dell'IA
La presidente della FTC Lina Khan ha affermato che l'intelligenza artificiale generativa comporta il rischio di radicare un significativo dominio tecnologico, sovralimentare le frodi e automatizzare la discriminazione se non controllata.
In un editoriale del New York Times pubblicato pochi giorni dopo l'avvertimento sulla fiducia dei consumatori, Khan ha affermato che la FTC mira a promuovere la concorrenza e proteggere i consumatori man mano che l'IA si espande.
Khan ha avvertito che alcune potenti aziende controllano input chiave di intelligenza artificiale come dati e informatica, che potrebbero favorire il loro dominio in assenza di vigilanza antitrust.
Ha avvertito che i contenuti falsi realistici dell'IA generativa potrebbero facilitare truffe diffuse. Inoltre, i dati distorti mettono a rischio gli algoritmi che bloccano illegalmente le persone dalle opportunità.
Sebbene nuovi, Khan ha affermato che i sistemi di intelligenza artificiale non sono esenti dalla protezione dei consumatori FTC e dalle autorità antitrust. Con una supervisione responsabile, Khan ha notato che l'IA generativa potrebbe crescere in modo equo e competitivo, evitando le insidie di altri giganti della tecnologia.
IA e privacy dei dati
A giugno, la FTC ha avvertito le aziende che le tutele della privacy dei consumatori si applicano anche ai sistemi di intelligenza artificiale che dipendono dai dati personali.
Nelle denunce contro Amazon e Ring, la FTC ha denunciato pratiche sleali e ingannevoli che utilizzano dati vocali e video per addestrare algoritmi.
Il presidente della FTC Khan ha affermato che i vantaggi dell'IA non superano i costi per la privacy della raccolta di dati invasiva.
L'agenzia ha affermato che i consumatori mantengono il controllo sulle proprie informazioni anche se un'azienda le possiede. Sono previste tutele e controlli di accesso rigorosi quando i dipendenti esaminano dati biometrici sensibili.
Per i dati dei bambini, la FTC ha affermato che applicherà pienamente la legge sulla privacy dei bambini, COPPA. Le denunce ordinavano la cancellazione dei dati biometrici illecitamente acquisiti e degli eventuali modelli di IA da essi derivati.
Il messaggio per le aziende tecnologiche era chiaro: sebbene il potenziale dell'intelligenza artificiale sia vasto, gli obblighi legali relativi alla privacy dei consumatori rimangono fondamentali.
Competizione AI generativa
Verso la fine di giugno, la FTC ha emesso una guida che avverte che la rapida crescita dell'IA generativa potrebbe sollevare problemi di concorrenza se gli input chiave passassero sotto il controllo di poche aziende tecnologiche dominanti.
L'agenzia ha affermato che sono necessari input essenziali come dati, talento e risorse informatiche per sviluppare modelli di intelligenza artificiale generativa all'avanguardia. L'agenzia ha avvertito che se una manciata di grandi aziende tecnologiche ottiene un controllo eccessivo su questi input, potrebbe utilizzare tale potere per distorcere la concorrenza nei mercati dell'IA generativa.
La FTC ha avvertito che tattiche anticoncorrenziali come il raggruppamento, la vendita abbinata, accordi esclusivi o l'acquisizione di concorrenti potrebbero consentire agli operatori storici di eliminare i rivali emergenti e consolidare il proprio vantaggio.
La FTC ha affermato che monitorerà i problemi di concorrenza relativi all'IA generativa e agirà contro le pratiche sleali.
L'obiettivo era consentire agli imprenditori di innovare con tecnologie di intelligenza artificiale trasformative, come i chatbot, che potrebbero rimodellare le esperienze dei consumatori in tutti i settori. Con le giuste politiche, la FTC riteneva che l'IA generativa emergente potesse esprimere tutto il suo potenziale economico.
Affermazioni di marketing sospette
All'inizio di luglio, la FTC ha messo in guardia contro gli strumenti di intelligenza artificiale che possono generare deepfake, voci clonate e aumento del testo artificiale, così sono emersi anche strumenti che affermano di rilevare tali contenuti generati dall'IA.
Tuttavia, gli esperti hanno avvertito che le affermazioni di marketing fatte da alcuni strumenti di rilevamento potrebbero sopravvalutare le loro capacità.
La FTC ha messo in guardia le aziende dall'esagerare l'accuratezza e l'affidabilità dei loro strumenti di rilevamento. Dati i limiti della tecnologia attuale, le aziende dovrebbero garantire che il marketing rifletta valutazioni realistiche di ciò che questi strumenti possono e non possono fare.
Inoltre, la FTC ha osservato che gli utenti dovrebbero diffidare delle affermazioni secondo cui uno strumento può rilevare tutti i falsi di intelligenza artificiale senza errori. Un rilevamento imperfetto potrebbe portare ad accusare ingiustamente persone innocenti come i candidati al lavoro di creare contenuti falsi.
Cosa scoprirà la FTC?
L'indagine della FTC su OpenAI arriva nel mezzo di un crescente controllo normativo sui sistemi di intelligenza artificiale generativa.
Poiché queste potenti tecnologie abilitano nuove funzionalità come chatbot e deepfake, sollevano nuovi rischi in termini di pregiudizio, privacy, sicurezza, concorrenza e inganno.
OpenAI deve rispondere a domande sul fatto che abbia preso adeguate precauzioni nello sviluppo e nel rilascio di modelli come GPT-3 e DALL-E che hanno plasmato la traiettoria del campo dell'IA.
La FTC sembra concentrata sull'assicurare che le pratiche di OpenAI siano in linea con le leggi sulla protezione dei consumatori, in particolare per quanto riguarda le affermazioni di marketing, le pratiche relative ai dati e la mitigazione dei danni alla società.
Il modo in cui OpenAI risponde e se sorgono azioni di contrasto potrebbero creare precedenti significativi per la regolamentazione man mano che l'IA avanza.
Per ora, l'indagine della FTC sottolinea che il clamore che circonda l'IA non dovrebbe superare la supervisione responsabile.
I solidi sistemi di intelligenza artificiale sono molto promettenti ma comportano rischi se implementati senza garanzie sufficienti.
Le principali aziende di intelligenza artificiale devono garantire che le nuove tecnologie rispettino le leggi di lunga data che proteggono i consumatori e i mercati.
Immagine di presentazione: Ascannio/Shutterstock