Home / Filosofia e IA / Cinque modi per creare ed implementare una intelligenza artificiale più etica

Cinque modi per creare ed implementare una intelligenza artificiale più etica

Con più innovazione nell’intelligenza artificiale (AI), stanno emergendo usi inaspettatamente pericolosi , come i casi OpenAI e Amazon . Ognuno è un buon promemoria per considerare l’etica e le implicazioni che circondano l’intelligenza artificiale e l’apprendimento automatico (ML).
Innanzitutto, è importante notare che l’intelligenza artificiale non ha, da sola, alcuna intenzione (buona o cattiva) o volontà di comportarsi male. Persino l’intelligenza apparentemente più senziente manca di intenzioni o motivazioni; sta semplicemente interpretando i dati che ha dato. In definitiva, con tutte le questioni etiche che nascono dall’intelligenza artificiale, gli esseri umani sono responsabili della creazione di intelligenza artificiale all’interno di una struttura eticamente sana.

Tenendo presente questa premessa, come possiamo, come esseri umani, creare un’IA capace ed efficace che funzioni eticamente?

  1. Identificare potenziali insidie

Una parte importante dello sviluppo dell’AI entro i limiti di un quadro etico è comprendere appieno le implicazioni e le potenziali insidie ​​che una determinata tecnologia potrebbe avere. Prendi l’esempio di OpenAI, che sviluppa l’intelligenza artificiale per l’elaborazione del linguaggio naturale, un caso d’uso apparentemente innocuo. L’azienda ha raccolto titoli internazionali quando è stata in grado di generare ” falsi profondi “, cioè storie totalmente inventate che sembrano notizie. In definitiva, OpenAI ha fatto la scelta di rilasciare una versione ridotta della loro IA .

Recentemente mi sono imbattuto in una prospettiva analoga all’interno della mia azienda, che utilizza l’intelligenza artificiale per ottimizzare i prezzi. Uno studio recente (tramite MIT Technology Review ) ha suggerito che gli algoritmi di determinazione dei prezzi basati su AI potrebbero colludere e aumentare artificialmente i prezzi a spese del consumatore. Credo che sia la responsabilità principale dei creatori di intelligenza artificiale identificare tutti i casi in cui la loro tecnologia potrebbe essere utilizzata, esaminando potenziali insidie ​​e risolvendo tali problemi. Nel caso della mia azienda, abbiamo deciso di utilizzare un sistema ibrido che crea più controllo.

  1. Comprendere i pregiudizi umani

Come ho affermato prima, l’IA non è consapevole del suo comportamento “non etico” perché, di fatto, non ha consapevolezza. Sta semplicemente imparando da – e intervenendo – il set di dati disponibile. Inevitabilmente, l’IA assumerà i pregiudizi di qualsiasi set di dati su cui si alleni. Per assicurarsi che segua la tua etica, dovresti dargli delle regole generali da seguire.

Ad esempio, se si utilizzano dati di istituti di credito che storicamente hanno negato prestiti alle minoranze , l’IA sarà inevitabilmente prevenuta nei confronti delle minoranze. Se le aziende avessero concesso più prestiti alle minoranze, l’intelligenza artificiale potrebbe imparare qualcosa di diverso – ma se non ha questa possibilità, non può trascendere le emozioni o le decisioni umane che hanno creato il set di allenamento. A differenza dei pregiudizi umani, i pregiudizi relativi all’IA sono facilmente identificabili e significativamente più facili da correggere.

  1. Abilitare il controllo

Quando si costruisce o si implementa l’intelligenza artificiale, è importante creare sistemi di controllo per regolare e ottimizzare l’intelligenza artificiale (e non solo le tre leggi della robotica ). L’intelligenza artificiale impara e migliora nel tempo, ma ciò consente anche che sorgano potenziali problemi che non hai valutato nello sviluppo iniziale. Anche i casi d’uso più innocui per l’intelligenza artificiale possono avere effetti imprevisti, come il nostro precedente esempio di OpenAI. Adottare misure critiche per comprendere e pianificare il futuro. Anche per gli Autonomous Vehicles (AV) di oggi, è probabile che i controlli umani siano messi in atto: le compagnie AV pianificano di mettere i teleoperatori al posto di guida , potenzialmente da centinaia di chilometri di distanza. In tal caso, è probabile che un obiettivo subentri nel caso in cui l’AV si “blocca”. Ma gli stessi controlli svolgono un ruolo fondamentale in tutte le applicazioni AI, incluso il software. I controlli sono anche necessari per sviluppare la fiducia nel nuovo sistema: se riesci a chiuderlo o regolarlo, potrebbe essere più facile per gli utenti adottarlo e più generalmente accettabile.

  1. Garantire la trasparenza e la responsabilità

Parte di ciò che rende l’AI sembra minacciosa è che si tratta di una sorta di “scatola nera” da una prospettiva esterna. I dati vanno e vengono fuori i risultati – tada ! Ma non è magico: è un sacco di matematica complessa. È importante allineare tutti gli stakeholder (interni ed esterni) con una chiara comprensione dello scopo dell’IA, come lo ha progettato il team, gli input che considera e gli input che non ha, e perché l’azienda ei suoi clienti dovrebbero fidarsi e apprezzarla . L’allineamento e la trasparenza sono importanti per qualsiasi implementazione di IA di successo e sono estremamente importanti quando si valutano le considerazioni etiche per la propria organizzazione.

  1. Anticipa gli impatti della IA sulla tua forza lavoro con Upskilling

Il cambiamento tecnologico dirompente è inevitabile. Come ha spiegato uno scrittore in The Conversation, la rivoluzione industriale ha provocato gravi sconvolgimenti e il timore che le nuove tecnologie possano creare danni enormi e irreparabili all’occupazione, il che alla fine non è stato il caso. AI tende a sollevare le stesse paure di dislocamento lavorativo, e giustamente. Non credo che qualsiasi tecnologia precedente nella storia umana abbia avuto un impatto tanto diffuso quanto lo sarà l’intelligenza artificiale. Ma come suggerito da un articolo di Fast Company , non tutti gli spostamenti di lavoro sono una brutta cosa, né equivale a una perdita di posti di lavoro. Soprattutto, l’automazione e l’IA probabilmente sostituiranno i compiti meccanici e il lavoro manuale ripetitivo, lasciando spazio a un lavoro più creativo e interessante e alla creazione di nuove opportunità. Il Bureau of Labor Statistics afferma che, nel 1870, quasi il 50% degli occupati lavorava in agricoltura, una cifra che dal 2016 era scesa a meno dell’1,5%. Quando si sta costruendo o acquistando l’intelligenza artificiale, è importante adottare misure per valutare l’impatto che avrà sulla propria attività nel suo complesso e in che modo l’aggiornamento potrebbe ridurre l’impatto degli spostamenti di lavoro nella propria organizzazione. L’intelligenza artificiale è uno strumento che non solo può rendere il lavoro umano più efficiente ed efficace, ma può anche rendere questo lavoro più soddisfacente.

Conclusione

Mentre ogni implementazione dell’IA è diversa e utilizza casi e considerazioni molto variabili, la necessità di considerare le implicazioni etiche dell’IA non è mai stata così grande. Per i leader aziendali che sviluppano o implementano l’intelligenza artificiale, comprendere le possibili ramificazioni e identificare tutte le parti interessate è fondamentale per questo processo. È nostra responsabilità garantire che l’intelligenza artificiale sia creata eticamente e mantenga standard etici, il che è un processo costantemente iterativo. AI ha aperto un mondo di possibilità per l’umanità, ma ha anche creato nuove sfide. La priorità di un approccio etico all’IA è un primo passo importante verso la costruzione della tecnologia del futuro.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi