Home / Intelligenza artificiale pericolo / Il Bene e il male dell’intelligenza artificiale

Il Bene e il male dell’intelligenza artificiale

Intelligenza artificiale: il bene e il male


Per alcuni, la nozione di “intelligenza artificiale” evoca immagini di robot killer, un Terminator o mondi distopici, come in The Matrix.

Ma per Peter McKinnon – che è stato coinvolto nel settore dagli anni ’80 come imprenditore, ricercatore e osservatore – non è tutto negativo e dannoso per il futuro dell’IA.

Il modo in cui il futurista di Ottawa lo racconta durante i seminari, e per questo giornale, l’intelligenza artificiale rientra in due categorie: il “flusso bianco” e il “flusso nero”.

Il flusso bianco indica gli usi benevoli della tecnologia per l’umanità. Ad esempio, McKinnon ha rilevato che l’intelligenza artificiale in patologia può migliorare le diagnosi e gli esiti per i pazienti malati.

Il “flusso nero” è dove le cose diventano brutte. Ad esempio, fa emergere la possibilità di armi autonome che possono cercare e uccidere bersagli senza alcun essere umano nel circuito.

In altre parole, l’intelligenza artificiale è come un fiammifero. “Posso usare un fiammifero per accendere il fuoco in un camino”, ha detto MacKinnon, o “Posso usare un fiammifero per bruciare una casa … è un giudizio sul valore sociale, ciò che è buono, ciò che è male”.

Scienziato dagli anni ’60, MacKinnon è stato coinvolto nell’IA durante quello che ha definito il suo primo rinascimento negli anni ’80. Aveva fondato una società chiamata Canadian Artificial Intelligence Products Corp. che lavorava con la ex Cognos Inc. per un rapporto al governo sulle opportunità per l’IA in Canada. La tecnologia era ancora agli inizi e, sebbene possa sembrare molto avanzata ora, ha affermato che c’è ancora molta pista per l’innovazione.

“Ciò che è avanzato oggi è il mattone di domani”, ha detto.

MacKinnon ha anche una previsione (altamente speculativa) per l’umanità con l’intelligenza artificiale, e c’è una possibilità di nuvole scure.

Nei prossimi 25 anni, prevede cinque crescenti minacce basate sull’intelligenza artificiale che considera “alte” sulla scala di probabilità:

  • Problemi di sicurezza informatica
  • Crimine informatico
  • Spionaggio informatico
  • Guerra cibernetica
  • Minacce alla privacy

Non è tutto per le previsioni di MacKinnon. Egli espone anche due minacce all’esistenza dell’umanità, una delle quali è probabile che accada, e una in meno.

Intelligenza artificiale super intelligente (pensa che Skynet, la diabolica mente neurale ritratta nel film Terminator) sia così improbabile nei prossimi 25 anni da ritenere la minaccia come “nulla”.

Le armi autonome, tuttavia, pensa che siano probabili. E l’idea di macchine che hanno il potenziale di uccidere altre persone senza la supervisione umana è spaventosa.

“Totalmente contro questo, dal punto di vista dell’etica umana”, ha detto. “Questa è un’area in cui non ci sono nemmeno regole.”

Un altro potenziale problema potrebbe essere una notizia falsa generata da macchine. Il mese scorso, una società senza scopo di lucro denominata OpenAI ha dichiarato di aver sviluppato un bot in grado di produrre notizie altamente convincenti, ma ha rifiutato di pubblicare la sua ricerca per timore che venisse utilizzata in modo improprio.

Esistono anche i cosiddetti “deepfakes”, un nuovo modo di curare video basati sull’intelligenza artificiale. È una tecnologia che al momento non è decollata perché è difficile nascondersi quando un video è stato manipolato.

MacKinnon ha detto che vede l’AI in futuro come un catalizzatore per una “riorganizzazione” della società, simile a come la rivoluzione industriale ha spostato la vita da rurale a urbana, da fattoria a fabbrica.

Ma c’è una differenza. Le macchine del passato potevano stampare un pezzo di metallo, ma non potevano fare altro con quel pezzo. Le macchine di questi tempi – i computer – si stanno dirigendo verso il diventare jacks-of-all-trades.

“Il futuro del lavoro cognitivo è anche minacciato”, ha detto.

Che sia buono o cattivo, nelle parole di Nick Bostrom, filosofo esistenziale del rischio presso l’Università di Oxford: “L’intelligenza artificiale è l’ultima invenzione che l’umanità avrà mai bisogno di fare”.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi