OpenAI ha interrotto il suo classificatore AI, uno strumento progettato per identificare il testo generato dall'IA, a seguito delle critiche sulla sua accuratezza.
La cessazione è stata sottilmente annunciata tramite un aggiornamento a un post sul blog esistente.
L'annuncio di OpenAI recita:
“A partire dal 20 luglio 2023, il classificatore AI non è più disponibile a causa del suo basso tasso di precisione. Stiamo lavorando per incorporare il feedback e attualmente stiamo ricercando tecniche di provenienza più efficaci per il testo. Ci siamo impegnati a sviluppare e implementare meccanismi che consentano agli utenti di capire se i contenuti audio o visivi sono generati dall'intelligenza artificiale".
L'ascesa e la caduta del classificatore di OpenAI
Lo strumento è stato lanciato nel marzo 2023 come parte degli sforzi di OpenAI per sviluppare strumenti di classificazione AI che aiutino le persone a capire se i contenuti audio o visivi sono generati dall'IA.
Mirava a rilevare se i passaggi di testo fossero stati scritti da un essere umano o da un'intelligenza artificiale analizzando le caratteristiche linguistiche e assegnando una "valutazione di probabilità".
Lo strumento ha guadagnato popolarità ma alla fine è stato interrotto a causa delle carenze nella sua capacità di distinguere tra scrittura umana e automatica.
Problemi crescenti per la tecnologia di rilevamento AI
L'arresto improvviso del classificatore di testo di OpenAI evidenzia le sfide in corso per lo sviluppo di sistemi di rilevamento IA affidabili.
I ricercatori avvertono che risultati imprecisi potrebbero portare a conseguenze indesiderate se distribuiti in modo irresponsabile.
Kristi Hines del Search Engine Journal ha recentemente esaminato diversi studi recenti scoprendo debolezze e pregiudizi nei sistemi di rilevamento dell'IA.
I ricercatori hanno scoperto che gli strumenti spesso etichettavano erroneamente il testo scritto dall'uomo come generato dall'intelligenza artificiale, specialmente per i non madrelingua inglese.
Sottolineano che il continuo progresso dell'IA richiederà progressi paralleli nei metodi di rilevamento per garantire equità, responsabilità e trasparenza.
Tuttavia, i critici affermano che lo sviluppo dell'IA generativa supera rapidamente gli strumenti di rilevamento, consentendo una più facile evasione.
Potenziali pericoli di un rilevamento AI inaffidabile
Gli esperti mettono in guardia contro l'eccessivo affidamento sugli attuali classificatori per decisioni ad alto rischio come il rilevamento di plagi accademici.
Potenziali conseguenze dell'affidamento a sistemi di rilevamento IA imprecisi:
- Accusare ingiustamente scrittori umani di plagio o barare se il sistema contrassegna erroneamente il loro lavoro originale come generato dall'IA.
- Consentire ai contenuti plagiati o generati dall'intelligenza artificiale di non essere rilevati se il sistema non riesce a identificare correttamente il testo non umano.
- Rafforzare i pregiudizi se è più probabile che l'IA classifichi erroneamente gli stili di scrittura di alcuni gruppi come non umani.
- Diffondere disinformazione se il contenuto fabbricato o manipolato non viene rilevato da un sistema difettoso.
In sintesi
Man mano che i contenuti generati dall'intelligenza artificiale diventano più diffusi, è fondamentale continuare a migliorare i sistemi di classificazione per creare fiducia.
OpenAI ha dichiarato di continuare a dedicarsi allo sviluppo di tecniche più solide per identificare i contenuti AI. Tuttavia, il rapido fallimento del suo classificatore dimostra che il perfezionamento di tale tecnologia richiede progressi significativi.
Immagine in primo piano: photosince/Shutterstock