“Usare l’intelligenza artificiale per proiettare video dal vivo del terrorismo è ‘molto lontano dall’essere risolto’, afferma il capo di Facebook AI

Gli attacchi in diretta come quelli di Christchurch richiedono la moderazione umana

Di fronte a domande difficili su come Facebook rimuoverà i contenuti terroristici dalle sue piattaforme, l’amministratore Mark Zuckerberg offre una risposta semplice: l’intelligenza artificiale lo farà . Ma secondo lo scienziato capo di Facebook di IA, Yann LeCun, AI è lontano anni dall’essere in grado di sopportare pienamente l’onere della moderazione, in particolare quando si tratta di proiettare video dal vivo.

Parlando a un evento al laboratorio di ricerca AI di Facebook a Parigi la scorsa settimana, LeCun ha detto che Facebook era lontana dall’usare l’intelligenza artificiale per moderare i video dal vivo su larga scala , riporta Bloomberg News .

“Questo problema è molto lontano dall’essere risolto”, ha detto LeCun, che ha recentemente ricevuto il Premio Turing, noto come premio Nobel per l’informatica, insieme ad altri luminari dell’IA.

La proiezione di video dal vivo è un tema particolarmente urgente in un momento in cui i terroristi commettono atrocità con l’ obiettivo di diventare virali . L’incapacità di Facebook di affrontare questa sfida è diventata dolorosamente chiara all’indomani delle riprese di Christchurch in Nuova Zelanda quest’anno. L’attacco è stato trasmesso in diretta su Facebook e, sebbene la compagnia affermi di essere stata vista da meno di 200 persone durante la sua trasmissione, è stato questo flusso che è stato poi scaricato e condiviso su tutto il resto di Internet.

L’IA PUÒ RIMUOVERE I CONTENUTI INDESIDERATI, MA SOLO DOPO CHE UN ESSERE UMANO L’HA ETICHETTATO
L’incapacità dei sistemi automatici di comprendere e bloccare contenuti come questo non è una novità per gli esperti di IA come LeCun. Hanno a lungo avvertito che l’apprendimento automatico non è in grado di comprendere la varietà e le sfumature di questi video. I sistemi automatizzati sono molto bravi a rimuovere i contenuti che sono già stati identificati dagli umani come indesiderati (Facebook dice che blocca automaticamente il 99% dei contenuti terroristici di al-Qaeda, ad esempio), ma individuare esempi mai visti in precedenza è un compito molto più difficile.

Un problema riscontrato da LeCun a Parigi è la mancanza di dati di addestramento. “Per fortuna, non abbiamo molti esempi di persone reali che sparano ad altre persone”, ha detto lo scienziato. È possibile addestrare i sistemi a riconoscere la violenza usando le riprese di film, ha aggiunto, ma poi i contenuti contenenti violenza simulata verrebbero inavvertitamente rimossi insieme alla cosa reale.

Invece, aziende come Facebook si stanno concentrando sull’uso di sistemi automatizzati come assistenti per i moderatori umani. L’IA segnala il contenuto problematico e gli umani lo controllano manualmente. Certo, anche il sistema della moderazione umana ha i suoi problemi .

Ma ricorda: la prossima volta che qualcuno presenta AI come una pallottola d’argento per la moderazione online, le persone che stanno effettivamente costruendo questi sistemi sanno che è molto più difficile di così.

Di ihal