Potrebbe AI aiutarci a scrivere leggi migliori?

Gli algoritmi di deep learning guardano al mondo con meraviglia infantile, non portando alcun pregiudizio preconcetto e le esperienze mondiali che ombreggiano le nostre prospettive umane sugli eventi che abbiamo davanti. Limitati agli stretti confini dei loro dati di addestramento, essi semplicemente risalgono e documentano i suoi modelli di correlazione senza alcuna comprensione morale o etica se queste correlazioni sono buone o cattive. Il risultato è che i sistemi di deep learning ereditano i pregiudizi dei loro dati di allenamento. Mentre la maggior parte del focus di AI bias è stato sulle modifiche dei dati algoritmici e di addestramento per mitigare questi pregiudizi, documentare tali pregiudizi offre opportunità profonde per aiutarci a capire meglio i pregiudizi nascosti nella società e adattare le nostre leggi di conseguenza.

Uno dei maggiori limiti dell’attuale generazione di algoritmi di deep learning è anche il suo più grande punto di forza per aiutarci a capire i pregiudizi alla base della società: la sua mancanza di conoscenze di base.

Gli algoritmi AI iniziano ogni nuova applicazione come una lavagna vuota, imparando a conoscere il mondo che li circonda esclusivamente attraverso i dati di addestramento presentati prima di loro.

La regolazione della consistenza di questo flusso di input è quindi il singolo controllo più influente sul comportamento dell’algoritmo risultante. In genere i set di dati di input sono attentamente curati per bilanciare la diversità dei casi in ciascuna categoria di formazione e la loro complessità.

Gli algoritmi IA distorti sono quindi il risultato di dati di allenamento distorti, che a loro volta sono in genere il riflesso di una società parziale, dato che la maggior parte dei dati di formazione sono dati osservativi che catturano uno specifico aspetto dello scarico digitale della società.

La maggior parte della nostra conversazione sociale intorno all’IA parziale si concentra sulle metodologie per mitigare il pregiudizio nei set di dati del mondo reale che usiamo per addestrare quegli algoritmi.

Ad esempio, un algoritmo giudiziario di condanna potrebbe trarre da un database di tutte le precedenti decisioni in una determinata giurisdizione, trovando che i codici postali specifici sono altamente correlati con determinati risultati criminali.

La tradizionale mitigazione del bias si concentrerebbe sui modi per minimizzare questo errore, forse valutando quali dimensioni sono direttamente e indirettamente correlate al codice di avviamento postale per rimuoverle dalla considerazione dell’algoritmo.

Tuttavia, la semplice constatazione che il codice di avviamento postale è un così forte indicatore del risultato giudiziario è di per sé una potente intuizione sui pregiudizi sociali. Anche se non ci vuole un apprendimento profondo per far emergere tali tendenze grossolane, l’intelligenza artificiale è eccezionalmente brava nel mettere a nudo i modelli interconnessi molto sottili e silenziosi che sono alla base della società.

Proprio come le auto senza conducente di oggi vengono addestrate attraverso una combinazione di apprendimento e simulazione osservazionale, cosa succede quando usiamo sempre più l’IA per osservare i nostri sistemi giudiziari e combinare l’apprendimento del mondo reale con enormi risultati di simulazione che testano diverse combinazioni di pregiudizi sociali? I modelli sottostanti recuperati da quegli algoritmi di deep learning farebbero molto per aiutarci a capire meglio i modi distorti in cui la società è già organizzata.

Ci sono già molti progetti in corso per utilizzare l’apprendimento profondo in questi modi, ma l’attenzione prestata al bias dell’algoritmo si è ancora largamente focalizzata sulla prevenzione degli algoritmi dall’apprezzare i pregiudizi della società piuttosto che usare algoritmi per codificare i pregiudizi della società in equazioni matematiche quantitative che possono essere utilizzate per aiutare guida le leggi della nostra nazione.

Poiché l’intelligenza artificiale è sempre più utilizzata nel processo di condanna, la sua inflessibilità ci costringerà anche a fare meglio a codificare le eccezioni alle nostre leggi. Mentre le leggi contro le vendite di cibo non autorizzate potrebbero non essere tecnicamente un’eccezione per lo stand per la limonata di un bambino, i giudici umani difficilmente trattano un bambino di 10 anni con un tavolo pieghevole nel loro cortile uguale a quello del proprietario di un ristorante. Per un algoritmo AI che applica la lettera della legge, i due sono gli stessi, costringendoci a riconsiderare come codifichiamo le nostre leggi, il che a sua volta farebbe molto per rimuovere la discrezionalità giudiziaria che è spesso al centro delle preoccupazioni di pregiudizio.

Mettendo tutto questo insieme, mentre la maggior parte della nostra attenzione è stata rivolta alla prevenzione e alla mitigazione dei pregiudizi relativi all’IA, è importante ricordare che questo appreso pregiudizio ha un’enorme applicazione per aiutarci a capire meglio noi stessi e i pregiudizi della società stessa in modi che possono aiutarci scrivere leggi migliori e creare una società più giusta

Di ihal