Un algoritmo per filtrare gli insulti

Condividi questo articolo:

Gli ingegneri della IBM creano uno strumento per gestire online i commenti più volgari suggerendo alternative meno aggressive per smorzare l’odio nelle discussioni

È capitato a tutti di vedere cadere online una shitsorm (letteralmente, una montagna di letame): è quello che succede quando si scatena una discussione molto accesa contro qualcuno sui social network; così come è capitato a tutti di vedere una lunga sequela di insulti sotto un articolo di giornale. Li chiamano «leoni da tastiera», o «troll», quelli che imbiancano d’odio internet, di fatto sono semplici persone, come noi, che evidentemente non capiscono il potere di questo mezzo.

Online ci sono momenti e luoghi in cui le parole diventano proiettili e la verità, il buon senso e la semplice educazione vengono spazzate via con prepotenza.
Per salvarci da questa bruttezza (che non è solo negli altri e non è solo lontana da noi), gli ingegneri dell’IBM hanno creato un algoritmo di intelligenza artificiale che tenta di filtrare le parolacce dai nostri messaggi, suggerendo alternative più eleganti.

Ovviamente, siccome gli scienziati non volevano che questo sistema desse il fianco a poter essere utilizzato da governi o società autoritarie per contrassegnare o eliminare alcune opinioni politiche o alcune critiche tra le persone che conversano online, hanno detto che questo algoritmo non dovrebbe essere usato semplicemente per cambiare un linguaggio offensivo, ma dovrebbe fornire delicati richiami e suggerimenti. Insomma, invece di modificare automaticamente quello che scrivi, ti dirà: «Sei sicuro di voler dire a questo sconosciuto di andare a farsi fottere?».

In pratica è come se qualcuno fosse lì a cercare di farti contare fino a 10 prima di usare l’istinto o di dormirci su, addirittura, prima di sfogarti con rabbia su una tastiera.

Dopo essere stato addestrato su milioni di tweet e post, il sistema di intelligenza artificiale è diventato molto efficace nel rimuovere parolacce e odio, anche se è molto meno bravo a ricreare quelle frasi in maniera di fargli conservare il loro significato anche se espresso in maniera educata.

Il team di sviluppo di questo algoritmo è consapevole dei suoi limiti: ovviamente, un filtro linguistico non può porre fine a una cultura così tossica. Quello che questa ricerca può fare è di certo farci riflettere, insegnarci a fare un passo indietro, respirare e calmarci prima di alimentare questo perpetuo e perenne odio che si apre con un click davanti ai nostri occhi.

Questo articolo è stato letto 41 volte.

ai, algoritmo, carenza di iodio, odio, Online, web

Comments (7)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Ecoseven è un prodotto di Ecomedianet S.r.l. Direzione e redazione: Lungotevere dei Mellini n. 44 - 00193 Roma
Registrazione presso il Tribunale di Roma n° 482/2010 del 31/12/2010.redazione@ecoseven.net