Google ha annunciato oggi che sta avviando una discussione pubblica sullo sviluppo di nuovi protocolli e linee guida su come i sistemi di intelligenza artificiale accedono e utilizzano i contenuti dei siti web.
In un post sul blog, Google vuole esplorare "standard tecnici ed etici per consentire la scelta e il controllo degli editori web per i casi d'uso emergenti di intelligenza artificiale e ricerca".
L'annuncio segue la recente conferenza I/O di Google, in cui la società ha discusso di nuovi prodotti AI e dei suoi principi AI, che mirano a garantire che i sistemi AI siano equi, trasparenti e responsabili.
Il post sul blog di Google recita:
“Crediamo che tutti traggano vantaggio da un vivace ecosistema di contenuti. La chiave di ciò è che gli editori web hanno una scelta e un controllo significativi sui loro contenuti e opportunità per trarre valore dalla partecipazione all'ecosistema web.
Google riconosce che gli standard tecnici come robots.txt sono stati creati quasi 30 anni fa e sviluppati prima delle moderne tecnologie AI in grado di analizzare i dati web su vasta scala.
Robots.txt consente agli editori di specificare in che modo i motori di ricerca scansionano e indicizzano i loro contenuti. Tuttavia, mancano meccanismi per affrontare il modo in cui i sistemi di intelligenza artificiale possono utilizzare i dati per addestrare algoritmi o sviluppare nuovi prodotti.
Google invita i membri delle comunità web e AI, inclusi editori web, accademici, gruppi della società civile e i suoi partner, a partecipare a una discussione pubblica sullo sviluppo di nuovi protocolli e linee guida etiche.
Google afferma:
"Vogliamo che questo sia un processo aperto e speriamo che un'ampia gamma di parti interessate si impegni a discutere su come bilanciare i progressi dell'IA con la privacy, l'agenzia e il controllo sui dati".
La discussione riflette un crescente riconoscimento del fatto che le tecnologie AI possono sfruttare i dati web in nuovi modi che sollevano sfide etiche riguardanti l'uso dei dati, la privacy e i pregiudizi.
Avviando un processo aperto, Google mira a una soluzione collaborativa che soddisfi gli interessi delle aziende tecnologiche e dei creatori di contenuti.
Il risultato di queste discussioni potrebbe modellare il modo in cui i sistemi di intelligenza artificiale interagiscono e utilizzano i dati dei siti Web per gli anni a venire.
"Il Web ha consentito così tanti progressi e l'intelligenza artificiale ha il potenziale per sfruttare tali progressi", afferma Google. "Ma dobbiamo farlo bene."
Critiche ai metodi di raccolta dei dati di Google
L'annuncio di Google arriva mentre affronta critiche sulla quantità di dati che ha già raccolto da tutto il Web per addestrare i suoi sistemi di intelligenza artificiale e modelli linguistici.
Queste pratiche di raccolta dei dati sono illustrate in un aggiornamento dell'informativa sulla privacy di Google.
Alcuni nella comunità SEO sostengono che lo sforzo di Google sia troppo poco e troppo tardi.
Barry Adams ha deriso l'annuncio su Twitter, dicendo:
"Ora che abbiamo già addestrato i nostri LLM su tutti i tuoi contenuti proprietari e protetti da copyright, inizieremo finalmente a pensare a darti un modo per rinunciare a qualsiasi tuo contenuto futuro affinché venga utilizzato per arricchirci".
Altri sostengono che Google debba fare di più per raccogliere feedback in questo processo.
Nate Hake, un marketer di viaggi, ha twittato:
“'Dare il via a una discussione' richiede che l'altra parte dica effettivamente qualcosa. Questo è solo un modulo di acquisizione della posta elettronica. Nessun campo per dare un feedback. Nemmeno un messaggio di conferma.
L'intelligenza artificiale si basa sui dati, ma quanto è troppo?
I sistemi di intelligenza artificiale hanno bisogno di grandi quantità di dati per funzionare, migliorare e portare benefici alla società. Tuttavia, più dati ha accesso l'IA, maggiori sono i rischi per la privacy personale.
Esistono difficili compromessi tra consentire il progresso dell'IA e proteggere le informazioni delle persone.
Si discute se le persone debbano essere in grado di rinunciare all'intelligenza artificiale utilizzando i propri dati pubblici sui social media. Alcuni dicono che le persone dovrebbero controllare i propri dati, mentre altri dicono che questo rallenta il progresso dell'IA.
Entrambe le parti presentano argomentazioni valide e siamo lontani da un consenso sul giusto approccio politico.
Guardando avanti
L'invito alla discussione di Google è un passo nella giusta direzione, ma l'azienda deve seguire l'implementazione del feedback che riceve.
Google non è il solo ad affrontare queste sfide. Ogni azienda tecnologica che sviluppa l'intelligenza artificiale si affida ai dati raccolti dal web. La discussione dovrebbe coinvolgere l'intero settore tecnologico, non solo Google.
Immagine di presentazione: JDres/Shutterstock