Mi è stata inviata una copia di ” The Reasonable Robot ” di Ryan Abbott dagli editori. È un libro interessante che discute alcune aree critiche del diritto in quanto potrebbero interagire con l’intelligenza artificiale (AI). Vale la pena leggere il libro, anche se è tutt’altro che perfetto. È un ottimo punto di discussione, un punto di partenza per iniziare a pensare all’intelligenza artificiale e alla legge.

Software e diritto sono sempre stati un incrocio che mi ha interessato. All’alba dei tempi, uno dei miei documenti di alto livello durante la mia laurea era su come le leggi sul copyright, sui marchi e sui brevetti si applicano al software. Diciamo che la mia iniziale avversione per i brevetti per il software non è cambiata nel corso dei decenni.

Quando sono stato contattato per la revisione del libro, ero quindi interessato a ciò che un avvocato ha da dire sull’intelligenza artificiale. Il libro stesso è più che altro, in termini di finzione, una novella. È un tomo sottile che è una buona lettura in quanto può avviare conversazioni sull’argomento. Ryan Abbott ha messo insieme alcune riflessioni sui problemi, alcune di queste idee sono quelle a cui sottoscrivo mentre altre non sono così ben pensate.

Il primo capitolo è una buona introduzione all’intelligenza artificiale per quelle persone non tecniche che necessitano di una comprensione fondamentale per continuare con il resto del libro. Un cavillo che ho è che sarebbe stato meglio, nella sua definizione di AI, descrivere la differenza tra AI e AGI. L’intelligenza artificiale include le basi. L’intelligenza generale artificiale (AGI) è la ricerca, come suggerisce il nome, di un tipo di intelligenza artificiale che è più simile al pensiero umano, che è in grado di esaminare un’ampia varietà di problemi. Come ho detto a lungo, è facile definire l’IA (in realtà, AGI) come “tutto ciò che ancora non capiamo sull’intelligenza generale”, con le sezioni che diventano la loro specialità mentre comprendiamo le loro basi. La visione artificiale, la robotica e persino l’apprendimento profondo di oggi sono buoni esempi di ciò, con più bit di intelligenza artificiale compresi mentre gli oppositori continuano a dire che l’IA è un mito perché ancora non capiamo ciò che ancora non capiamo. La seconda metà del capitolo è una buona panoramica dei concetti di base e delle classi di comprensione dell’IA.

Il secondo capitolo è quello che espone il problema principale che ho con il libro. Si intitola “L’intelligenza artificiale dovrebbe pagare le tasse?” Ciò avrebbe potuto essere chiarito meglio, e persino completamente ignorato, se l’autore avesse compreso la differenza tra AI e AGI. Dovrebbe essere una risposta breve: “no!”. L’intelligenza artificiale è un software. Non è una sua entità. Le persone che possiedono l’IA pagano le tasse. L’intento dell’autore è buono, solo fuorviante. Una domanda migliore sarebbe stata se le società che utilizzano l’IA dovessero essere tassate per sostituire le entrate del governo mancanti. Questa discussione è eccellente e deve essere esaminata poiché l’IA cambia l’economia.

Il capitolo spiega come questa rivoluzione tecnologica è diversa dalle rivoluzioni precedenti in quanto, sì, distruggerà posti di lavoro. Ciò significa che le tasse saranno più basse perché le aziende non pagano tanto in tasse sui salari e anche i disoccupati non pagano le tasse. C’è anche l’ulteriore questione di un’imposta sul patrimonio, qualcosa che va oltre lo scopo di questo articolo. Il punto del libro secondo cui i governi devono dare uno sguardo chiaro all’impatto dell’IA sulle tasse è fondamentale, è il modo in cui è descritto che crea i problemi.

La confusione in questo capitolo, e più avanti nel libro, deriva da un problema che ho visto regolarmente: gli accademici non capiscono spesso come funzionano gli affari (e questo include la maggior parte degli accademici nei dipartimenti aziendali).

Il capitolo tre è etichettato con il titolo del libro, “Reasonable Robots”. Inizia con una chiara panoramica dei concetti di responsabilità e illecito applicato all’intelligenza artificiale. Un concetto chiave è la domanda su cosa sia ragionevole. Ad esempio, l’attuale legge sugli incidenti automobilistici tende a visualizzare le azioni degli individui e confrontarle con ciò che avrebbe fatto una “persona ragionevole”. Quindi cosa succede quando i veicoli autonomi sono statisticamente più sicuri delle persone? Iniziamo a incentivare le persone a smettere di guidare confrontando le loro azioni con ciò che avrebbe fatto un “robot ragionevole”? È un concetto molto intrigante.

Il problema che ho con questo capitolo è la tesi dell’autore che la responsabilità oggettiva è un male per l’IA. Quando decidi cosa ha fatto un individuo, l’attenzione è su quell’individuo. AI? Questo è creato da una società, un essere amorfo in cui ogni individuo può affermare di non essere la persona che prende la decisione e quindi di evitare la responsabilità. Per una società e per la mancanza di trasparenza sia dell’organizzazione che del software, la negligenza è uno standard troppo debole. Il signor Abbot ritiene che la responsabilità oggettiva potrebbe “scoraggiare l’automazione”. La mia risposta è che scoraggia l’automazione sciatta e pericolosa. Se l’azienda si concentra sulla capacità di dimostrare ciò che ha fatto, la responsabilità oggettiva non scoraggerà il progresso onesto dell’IA più di quanto scoraggia il progresso di altri prodotti.

I capitoli 4 e 5 si concentrano sui sistemi di intelligenza artificiale come inventori e sui diritti che possono avere. Di nuovo, rispondo semplicemente con un “nessuno”. Sono strumenti. Gli individui e le aziende che utilizzano questi strumenti per inventare non sono diversi da quelli che attualmente utilizzano analisi avanzate per trovare nuovi composti chimici o altre relazioni. Quando c’è un’AGI, la questione se un sistema sia o meno un individuo con diritti avrà un’importante importanza filosofica, morale e giuridica. In questo momento, non è così.

Il prossimo capitolo, sei, commette nuovamente l’errore del principiante di ignorare la differenza tra AI e AGI. Punire l’IA non è più logico che punire il cacciavite usato per uccidere qualcuno. “Male! Cattivo cacciavite! “

Il capitolo finale discute la “neutralità dell’IA”. Sono d’accordo sul fatto che la neutralità sia necessaria, come più volte accennato, l’IA è uno strumento. Un esempio che l’autore usa è il pregiudizio del problema nella condanna basato su dati di addestramento dell’IA errati, qualcosa di cui ho discusso quasi tre anni fa . Per ricollegarci al paragrafo precedente, non incolpiamo il Pinto di esplodere o il giocattolo di un bambino per aver portato come ingrediente. Non è l’IA che deve essere ritenuta responsabile, è l’azienda che ha costruito il sistema e le organizzazioni che implementano il sistema.

Per concludere questo articolo, ripeto quello che ho detto nel paragrafo iniziale: ho problemi con molti dei suggerimenti che l’autore fa, ma penso che tutti dovrebbero leggere il libro. Solleva questioni di importanza critica poiché l’IA acquisisce un impatto più prevalente sulla società. Quello che serve è la discussione che il libro di Ryan Abbot e la mia diatriba, si spera, inizieranno.

Di ihal