Gary Illyes di Google e altri hanno risposto a molte domande relative all'intelligenza artificiale al Google Search Central Live Tokyo 2023, condividendo nuovi approfondimenti sugli approcci e consigli di Google sui contenuti generati dall'intelligenza artificiale.
L'esperto giapponese di marketing per la ricerca Kenichi Suzuki (profilo Twitter) ha presentato al Search Central Tokyo 2023 e successivamente ha pubblicato un post sul blog in giapponese che riassume i principali approfondimenti dell'evento.
Parte di ciò che è stato condiviso è attualmente ben noto e documentato, ad esempio non importa a Google se il contenuto è generato dall'IA o meno.
Sia per i contenuti generati dall'intelligenza artificiale che per i contenuti tradotti, ciò che conta di più per Google è la qualità dei contenuti.
In che modo Google tratta i contenuti generati dall'intelligenza artificiale
Etichettatura dei contenuti generati dall'intelligenza artificiale
Ciò che potrebbe essere meno noto è se Google distingua o meno tra i contenuti generati dall'intelligenza artificiale o meno.
Il Googler, presumibilmente Gary Illyes, ha risposto che Google non etichetta i contenuti generati dall'intelligenza artificiale.
Gli editori dovrebbero etichettare i contenuti generati dall'intelligenza artificiale?
Attualmente l'UE chiede alle società di social media di etichettare volontariamente i contenuti generati dall'intelligenza artificiale per combattere le notizie false.
E Google attualmente raccomanda (ma non richiede) agli editori di etichettare le immagini generate dall'intelligenza artificiale utilizzando i metadati dei dati delle immagini IPTC, aggiungendo che le società di intelligenza artificiale delle immagini inizieranno nel prossimo futuro ad aggiungere automaticamente i metadati.
Ma per quanto riguarda il contenuto del testo?
Gli editori sono tenuti a etichettare i propri contenuti di testo come generati dall'intelligenza artificiale?
Sorprendentemente, la risposta è no, non è richiesto.
Kenichi Suzuki ha scritto che per quanto riguarda Google, non è necessario etichettare esplicitamente i contenuti AI.
Il Googler ha detto che stanno lasciando agli editori il compito di giudicare se si tratta di una migliore esperienza utente o meno.
La traduzione inglese di ciò che Kenichi ha scritto in giapponese è:
“Dal punto di vista di Google, non è necessario etichettare esplicitamente i contenuti generati dall'intelligenza artificiale come contenuti generati dall'intelligenza artificiale, poiché valutiamo la natura del contenuto.
Se ritieni che sia necessario dal punto di vista dell'utente, puoi specificarlo.
Ha anche scritto che Google ha messo in guardia contro la pubblicazione di contenuti AI così come sono senza che un editore umano li esamini prima della pubblicazione.
Hanno anche raccomandato di adottare lo stesso approccio con i contenuti tradotti, che un essere umano dovrebbe rivedere prima della pubblicazione.
Il contenuto naturale è classificato in cima
Uno dei commenti più interessanti di Google è stato ricordare che i loro algoritmi e segnali sono basati su contenuti umani e per questo classificheranno i contenuti naturali in cima.
La traduzione inglese dell'originale giapponese è:
“Algoritmi e segnali basati su ML (machine learning) stanno imparando dai contenuti scritti da esseri umani per gli esseri umani.
Pertanto, comprendi il contenuto naturale e mostralo in alto.
In che modo Google gestisce i contenuti AI e l'EEAT?
EEAT è un acronimo che significa Esperienza, Competenza, Autorevolezza e Affidabilità.
È qualcosa che è stato menzionato per la prima volta nelle linee guida per i valutatori della qualità della ricerca di Google, raccomandando ai valutatori di cercare prove che l'autore stia scrivendo da una posizione di esperienza nell'argomento.
Un'intelligenza artificiale, in questo momento, non può vantare esperienza in nessun argomento o di un prodotto.
Quindi è apparentemente impossibile per un'intelligenza artificiale raggiungere la soglia di qualità per determinati tipi di contenuti che richiedono esperienza.
Il Googler ha risposto che stanno avendo discussioni interne al riguardo e non sono ancora arrivati a una politica.
Hanno detto che annunceranno una politica una volta che l'avranno stabilita.
Le politiche sull'IA si stanno evolvendo
Viviamo in un momento di transizione a causa della disponibilità dell'intelligenza artificiale e della sua mancanza di affidabilità.
Le principali società di media che si sono affrettate a testare i contenuti generati dall'intelligenza artificiale hanno rallentato silenziosamente per rivalutare.
ChatGPT e simili IA generative come Bard non sono state espressamente addestrate per creare contenuti.
Quindi forse non sorprende che Google attualmente raccomandi agli editori di continuare a tenere d'occhio la qualità dei loro contenuti.
Leggi l'articolo originale di Kenichi Suzuki:
Cosa ho imparato al Google #SearchCentralLive Tokyo 2023
Immagine in primo piano di Shutterstock/takayuki