Perché AI non può correggere la moderazione dei contenuti
Dietro lo schermo: moderazione dei contenuti nell’ombra dei social media

Di seguito è riportato un estratto leggermente modificato della discussione di Nilay Patel, redattore capo di Roberts and Verge , sul perché l’intelligenza artificiale non è la soluzione al problema della moderazione dei contenuti.

Il mio collega e editore della Silicon Valley Casey Newton mi dice: “Se vivi in ​​un mondo in cui il tuo sogno è sostituire gli esseri umani con la matematica, allora naturalmente tratterai male gli esseri umani.” AI è progettato per il posto delle persone. Ecco perché questi moderatori di contenuti sono appaltatori. Hai mai visto questo tipo di visione artificiale della moderazione dei contenuti? Hai visto tentativi di costruirlo? Pensi che funzioni?

Prima di tutto, è un orientamento culturale e politico fondamentale per lavorare. C’è una convinzione intrinseca che quei sistemi siano in qualche modo meno prevenuti, che possano scalare meglio e che siano in qualche modo preferibili. Direi che c’è molto che non è detto in un tale atteggiamento. Ecco alcune cose che gli algoritmi non fanno: non formano un sindacato, non agitano per migliori condizioni di lavoro, non trapelano storie per giornalisti e accademici. Quindi dobbiamo essere molto critici su questa nozione.

Ma sì, dal 2010, mentre guardavo la vita lavorativa e il comportamento dei moderatori sul lavoro e quello che veniva loro chiesto, era molto chiaro per me che i processi che avevano intrapreso erano alberi decisionali binari. Se poi, se questo è presente, allora fallo. Se questo non è presente in quantità adeguata, allora vai e vai alla linea 20. E questo è un tipo di algoritmo che non solo è endemico per la cultura, ma andrebbe anche molto facilmente verso la costruzione di uno strumento di sistema computazionale che potrebbe replicarsi.

Quindi, una delle cose che ho visto come una tendenza più recente è il fatto che ci sono nuove tasche di ciò che considero essere un lavoro di moderazione dei contenuti commerciali che può essere aperto con un altro nome. E ora quello che vediamo è un gruppo di umani il cui lavoro a tempo pieno è, piuttosto che trattare contenuti live su un sistema, è quello di formare set di dati per strumenti di apprendimento automatico in modo che le loro decisioni su un particolare contenuto o un insieme di le immagini sottoposte a prescreening vengono quindi catturate e rimesse in un sistema computazionale con la speranza di utilizzarle per replicarle. E poi, alla fine, sostituire gli umani.

Detto questo, se parli con i veri addetti ai lavori del settore che parleranno candidamente e che stanno effettivamente lavorando direttamente in questo settore, ti diranno che non c’è tempo che possano immaginare di prendere gli esseri umani interamente da questo ciclo. E credo che sia vero. Se non altro per quello che ho appena descritto, abbiamo bisogno dell’intelligenza umana per addestrare correttamente le macchine.

E le persone cercheranno sempre di sconfiggere l’algoritmo.

Stanno andando a cercare di sconfiggerlo. Proveranno a giocarci. Non possiamo immaginare tutti gli scenari che arriveranno online. E, naturalmente, queste decisioni devono essere esaminate in vari punti lungo la catena decisionale. Nel migliore dei casi, quello che avremo e quello che continueremo ad avere è un ibrido. Ma negli ultimi anni, tutto ciò che ho visto è un aumento delle assunzioni, non una diminuzione.

Di ihal