In un'era in cui l'intelligenza artificiale definisce sempre più l'esperienza del cliente, comprendere il funzionamento interno di queste tecnologie non è mai stato così cruciale, in particolare per i professionisti del marketing.
Un recente rapporto di Bloomberg ha fatto luce sulla forza lavoro umana che addestra il chatbot Bard di Google, evidenziando il ruolo fondamentale di migliaia di appaltatori nel plasmare le risposte di questo strumento di intelligenza artificiale.
Questo rapporto approfondito svela le realtà dello sviluppo dell'IA e presenta implicazioni significative per le persone che le utilizzano.
La qualità, l'accuratezza e l'affidabilità delle interazioni guidate dall'intelligenza artificiale possono influire sulla reputazione del marchio, sulla fiducia dei clienti e, in ultima analisi, sui profitti.
Mentre approfondiamo i processi umani alla base del chatbot Bard AI, otteniamo preziose informazioni sulle sfide e sulle opportunità che si prospettano per le aziende che sfruttano l'IA nelle loro strategie di marketing.
Uno sguardo al campo di addestramento dell'IA
Bard di Google è noto per le sue risposte rapide e sicure a varie domande.
Tuttavia, lavoratori a contratto anonimi rivelano a Bloomberg che dietro questa abilità di intelligenza artificiale si nasconde il lavoro di umani frustrati.
Questi appaltatori, provenienti da aziende come Appen Ltd. e Accenture Plc, lavorano con scadenze ravvicinate per garantire che le risposte del chatbot siano affidabili, accurate e prive di pregiudizi.
Lavorare sotto pressione
Questi appaltatori, alcuni dei quali guadagnano solo $ 14 l'ora, sono stati sottoposti a crescenti pressioni nell'ultimo anno mentre Google e OpenAI competono in una corsa agli armamenti dell'IA.
I compiti sono diventati più complessi e il carico di lavoro è aumentato, spesso senza che gli appaltatori avessero competenze specifiche nelle aree che stanno esaminando.
Un appaltatore anonimo ha detto:
“Allo stato attuale, le persone sono spaventate, stressate, sottopagate, non sanno cosa sta succedendo. E quella cultura della paura non aiuta a ottenere la qualità e il lavoro di squadra che desideri da tutti noi”.
Il ruolo degli appaltatori nella formazione AI
Il ruolo degli appaltatori è rivedere le risposte dell'IA, identificare gli errori ed eliminare potenziali pregiudizi. Lavorano con istruzioni contorte e scadenze ravvicinate, spesso anche solo tre minuti.
Secondo i documenti condivisi con Bloomberg, agli appaltatori viene spesso chiesto di decidere se le risposte del modello AI contengono prove verificabili. Analizzano le risposte per fattori quali specificità, freschezza delle informazioni e coerenza.
Un esempio nel rapporto Bloomberg discute di come un valutatore potrebbe utilizzare le prove per determinare il dosaggio corretto per un farmaco per la pressione sanguigna chiamato Lisinopril.
Gli appaltatori devono garantire che le risposte non contengano contenuti dannosi, offensivi o eccessivamente sessuali. Devono inoltre proteggersi da informazioni imprecise, ingannevoli o fuorvianti.
Evidenziando il fattore umano dietro l'IA
Anche se i chatbot di intelligenza artificiale come Bard sono visti come rivoluzionari progressi tecnologici, la verità è che la loro efficacia dipende dal lavoro degli appaltatori umani.
Laura Edelson, scienziata informatica della New York University, dice a Bloomberg:
"Vale la pena ricordare che questi sistemi non sono opera di maghi: sono opera di migliaia di persone e del loro lavoro a bassa retribuzione".
Nonostante il ruolo fondamentale degli appaltatori, il loro lavoro è spesso avvolto nel mistero e hanno poche comunicazioni dirette con Google.
Preoccupazioni per la qualità dei prodotti AI
Gli appaltatori stanno sollevando preoccupazioni sulle loro condizioni di lavoro, che ritengono possano influire sulla qualità dei prodotti AI.
Gli appaltatori sono una parte indispensabile della formazione dell'IA, come ha affermato Ed Stackhouse, un lavoratore di Appen, in una lettera al Congresso.
Stackhouse ha avvertito che la velocità richiesta per la revisione dei contenuti potrebbe portare Bard a diventare un prodotto "difettoso" e "pericoloso".
Google ha risposto a queste preoccupazioni affermando che intraprende un ampio lavoro per costruire i suoi prodotti AI in modo responsabile, impiegando rigorosi processi di test, formazione e feedback per garantire la fattualità e ridurre i pregiudizi.
Sebbene la società affermi di non fare affidamento esclusivamente su valutatori umani per migliorare l'intelligenza artificiale, è stato sottolineato che possono insinuarsi piccole imprecisioni, che potrebbero potenzialmente fuorviare gli utenti.
Alex Hanna, direttore della ricerca presso il Distributed AI Research Institute ed ex etico di Google AI, ha dichiarato:
"È ancora preoccupante che il chatbot stia sbagliando i fatti principali."
Un invito al cambiamento
Nonostante le crescenti preoccupazioni per le condizioni di lavoro e la qualità dei prodotti IA, è chiaro che gli appaltatori umani sono una parte essenziale dello sviluppo dell'IA.
La sfida è garantire che ricevano un compenso adeguato e che dispongano delle risorse necessarie per svolgere il proprio lavoro.
Emily Bender, professoressa di linguistica computazionale all'Università di Washington, ha sottolineato questo punto, dicendo:
"Il lavoro di questi collaboratori a contratto presso Google e altre piattaforme tecnologiche è una storia di sfruttamento del lavoro".
Mentre la rivoluzione dell'IA continua, il ruolo degli appaltatori umani nel plasmare e perfezionare queste tecnologie rimarrà vitale.
Le loro voci e preoccupazioni devono essere ascoltate e affrontate per garantire lo sviluppo continuo di prodotti IA affidabili, accurati ed etici.
Immagine di presentazione: Maurice NORBERT/Shutterstock