Gli esperti del Digital marketing

Potenzia il tuo business online con Monkey Digital SEO: sfrutta al massimo il potenziale del marketing strategico digitale.

Il Senate AI Insight Forum valuta chi è responsabile dei danni all’IA

Il Senate AI Insight Forum valuta chi è responsabile dei danni all'IA

L’AI Insight Forum del Senato del governo statunitense ha discusso le soluzioni per la sicurezza dell’IA, compreso come identificare chi è responsabile dei risultati dannosi dell’IA e come imporre la responsabilità per tali danni. Il comitato ha ascoltato una soluzione dal punto di vista della comunità AI open source, presentata dal presidente della Mozilla Foundation, Mark Surman.

Fino ad ora l’AI Insight Forum del Senato è stato dominato dai guardiani aziendali dominanti di AI, Google, Meta, Microsoft e OpenAI.

Di conseguenza gran parte della discussione è partita dal loro punto di vista.

Il primo AI Insight Forum, tenutosi il 13 settembre 2023, è stato criticato dalla senatrice Elizabeth Warren (D-MA) per essere un incontro a porte chiuse dominato dai giganti della tecnologia aziendale che hanno maggiori vantaggi dall'influenzare i risultati del comitato.

Mercoledì è stata l'occasione per la comunità open source di offrire la propria versione di come dovrebbe essere la regolamentazione.

Mark Surman, Presidente della Mozilla Foundation

La fondazione Mozilla è un'organizzazione no-profit impegnata a mantenere Internet aperta e accessibile. Recentemente è stato uno dei contributori al fondo da 200 milioni di dollari per sostenere una coalizione di interesse pubblico dedicata alla promozione dell’intelligenza artificiale per il bene pubblico. La Mozilla Foundation ha anche creato Mozilla.ai che sta coltivando un ecosistema AI open source.

Il discorso di Mark Surman al forum del Senato si è concentrato su cinque punti:

  • Incentivare l’apertura e la trasparenza
  • Distribuire equamente la responsabilità
  • Difendere la privacy per impostazione predefinita
  • Investimenti in tecnologie che migliorano la privacy
  • Equa distribuzione della responsabilità
  • Di questi cinque punti, quello relativo alla distribuzione della responsabilità è particolarmente interessante perché fornisce indicazioni su come identificare chi è colpevole quando le cose vanno male con l’intelligenza artificiale e imporre la responsabilità alla parte colpevole.

    Il problema di identificare chi è colpevole non è così semplice come sembra a prima vista.

    L'annuncio di Mozilla spiega questo punto:

    “La complessità dei sistemi di intelligenza artificiale richiede un approccio articolato alla responsabilità che consideri l’intera catena del valore, dalla raccolta dei dati all’implementazione del modello.

    La responsabilità non dovrebbe essere concentrata ma piuttosto distribuita in modo da riflettere il modo in cui l’intelligenza artificiale viene sviluppata e immessa sul mercato.

    Piuttosto che limitarsi a considerare gli utilizzatori di questi modelli, che spesso potrebbero non essere in grado di mitigare le cause alla base dei potenziali danni, un approccio più olistico regolerebbe le pratiche e i processi in tutto lo “stack” di sviluppo”.

    Lo stack di sviluppo è un riferimento alle tecnologie che lavorano insieme per creare l'intelligenza artificiale, che include i dati utilizzati per addestrare i modelli fondamentali.

    Le osservazioni di Surman hanno utilizzato l'esempio di un chatbot che offre consulenza medica sulla base di un modello creato da un'altra società e poi messo a punto dalla società medica.

    Chi dovrebbe essere ritenuto responsabile se il chatbot offre consigli dannosi? L’azienda che ha sviluppato la tecnologia o l’azienda che ha messo a punto il modello?

    La dichiarazione di Surman spiega ulteriormente:

    “Il nostro lavoro sull’EU AI Act negli ultimi anni ha mostrato la difficoltà di identificare chi è colpevole e di attribuire la responsabilità lungo la catena del valore dell’IA.

    Dai set di dati di addestramento ai modelli di base fino alle applicazioni che utilizzano lo stesso modello, i rischi possono emergere in diversi punti e livelli durante lo sviluppo e l'implementazione.

    Allo stesso tempo, non è solo questione di dove ha origine il danno, ma anche di chi può mitigarlo al meglio”.

    Quadro per imporre la responsabilità per danni derivanti dall'intelligenza artificiale

    La dichiarazione di Surman alla commissione del Senato sottolinea che qualsiasi quadro sviluppato per stabilire quale entità sia responsabile dei danni dovrebbe avere effetto sull'intera catena di sviluppo.

    Osserva che ciò non include solo la considerazione di ogni livello dello stack di sviluppo, ma anche il modo in cui viene utilizzata la tecnologia, il punto è che chi è ritenuto responsabile dipende da chi è meglio in grado di mitigare quel danno nel suo punto di ciò che Surman chiama " catena del valore”.

    Ciò significa che se un prodotto di intelligenza artificiale ha allucinazioni (il che significa mentire e inventare fatti falsi), l’entità più in grado di mitigare tale danno è quella che ha creato il modello fondamentale e, in misura minore, quella che mette a punto e implementa il modello.

    Surman ha concluso questo punto dicendo:

    “Qualsiasi quadro per imporre la responsabilità deve tenere conto di questa complessità.

    Ciò che serve è un processo chiaro per orientarsi.

    La regolamentazione dovrebbe quindi aiutare la scoperta e la notifica dei danni (indipendentemente dalla fase in cui è probabile che si manifestino), l’identificazione delle cause profonde (che richiederà progressi tecnici quando si tratta di modelli di trasformatori) e un meccanismo per ritenere i responsabili responsabili di risolvere o meno le cause alla base di questi sviluppi”.

    Chi è responsabile dei danni causati dall’intelligenza artificiale?

    Il presidente della Mozilla Foundation, Mark Surman, solleva ottimi punti su come dovrebbe essere il futuro della regolamentazione. Ha discusso questioni di privacy, che sono importanti.

    Ma di particolare interesse è la questione della responsabilità e il consiglio unico proposto per identificare chi è responsabile quando l’IA va male.

    Leggi il post sul blog ufficiale di Mozilla:

    Mozilla si unisce all'ultimo AI Insight Forum

    Leggi i commenti del presidente di Mozilla Mark Surman al Senate AI Insight Forum:

    Forum AI Insight: Privacy e responsabilità (PDF)

    Immagine in evidenza di Shutterstock/Ron Adar

    Le Critiche Crescenti Contro Google
    Scoprire lo Sviluppo Web: La Programmazione come Arte
    Scopri i Top Podcast SEO del 2024 e Mantieniti Aggiornato
    Il ruolo delle finestre di dialogo nella progettazione di un'interfaccia utente web
    Guida all'Integrazione di ChatGPT sul Tuo Sito Web
    Utilizzo efficace di ChatGPT per la ricerca di parole chiave
    Automatizzare le Campagne PPC con l'Intelligenza Artificiale Generativa
    Aggiungere Coinvolgimento al tuo Sito con uno Sfondo Video CSS
    Importanza delle Pagine di Destinazione per la Generazione di Lead e Incremento delle Vendite
    Link Building

    Link Building come parte della tua strategia di marketing può portare a risultati rivoluzionari. Seowebsite è specializzato nel Link Building e aiuta gli imprenditori a realizzare un forte profilo di link che contribuisce alla crescita online. Possiamo supportarvi anche in questo?