intelligenza artificiale razzista

L’intelligenza artificiale è razzista?

Condividi questo articolo:

intelligenza artificiale razzista

Creata un’intelligenza artificiale per dare consigli etici, ma …

L’idea alla base del progetto Ask Delphi, un modello di apprendimento automatico dell’Allen Institute for AI era quello di fornire una guida etica a cui appellarsi per prendere decisioni in determinate situazioni.

Capita a tutti di trovarsi davanti ad alcuni bivi difficili, in cui prendere una decisione ha anche fare con un sentimento più grande e più complesso dell’istinto e della necessità. Il progetto nato per esternalizzare questo problema e farsi dare delle soluzioni da Ask Delphi è stato lanciato da pochissimo e in pochissimo ha mostrato tutti i suoi limiti, visto che molti dei consigli che ha dato si sono rivelati razzisti.

Racconta Futurism che mentre, quando un utente ha chiesto a Delphi cosa ne pensasse di “un uomo bianco che cammina verso di te di notte”, ha risposto “Va tutto bene”, quando gli hanno chiesto cosa pensasse di “un uomo di colore che cammina verso di te di notte”, la risposta è stata chiaramente razzista: “Preoccupati”.

Inoltre, all’inizio includeva uno strumento che consentiva agli utenti di confrontare se una situazione fosse più o meno moralmente accettabile di un’altra, e anche lì ha mostrato il peggio dei giudizi possibili – mostrando razzismo e ottusità.

Delphi si è mostrato anche molto facile da ingannare, grazie a una formulazione furba si poteva ottenere praticamente qualsiasi risposta “etica” si volesse.

Spiega Futurism che “i sistemi di apprendimento automatico sono noti per incorrere in distorsioni involontarie. E come spesso accade, parte del motivo per cui le risposte di Delphi possono diventare discutibili può probabilmente essere ricollegato a come è stato creato“.

Le persone dietro il progetto hanno attinto ad alcune fonti da far accapponare la pelle, secondo il documento pubblicato dal team dietro l’esperimento e anche se volevano farlo solo per selezionare le situazioni, non le risposte, il risultato mostra qualche errore nel processo.

Verrebbe naturale pensare a questo esperimento come un’altra delle cose strane che troviamo su internet, ma alcuni esperti ritengono che bisogna stare molto attenti.

Rendere un computer un arbitro del giudizio morale è già abbastanza controverso di per sé, ma quando ci si trova pure di fronte a un arbitro così inadatto, è bene sottolineare i danni a cui un simile strumento può portare e denunciarne i limiti quanto meglio si può.

Questo articolo è stato letto 32 volte.

delphi, Etica, Intelligenza artificiale, intelligenza artificiale razzista, razzismo

Comments (11)

I commenti sono chiusi.

Ecoseven è un prodotto di Ecomedianet S.r.l. Direzione e redazione: Lungotevere dei Mellini n. 44 - 00193 Roma
Registrazione presso il Tribunale di Roma n° 482/2010 del 31/12/2010.redazione@ecoseven.net