Home / Archive by category "Intelligenza artificiale pericolo"

Intelligenza artificiale pericolo

La Cina sta usando il riconoscimento facciale per rintracciare le minoranze etniche, anche a Pechino ?

È successo di nuovo - l'approccio non vincolato della Cina all'automazione della distopia è stato esposto dalla mancanza di sicurezza dei dati di base. TechCrunch ha riferito che un ricercatore di sicurezza "ha trovato un database di smart city accessibile da un browser Web senza password, [i cui dettagli è stato trasmesso] a TechCrunch nel tentativo di ottenere i dati protetti". I dati, che includevano "scansioni del riconoscimento facciale su centinaia di persone per diversi mesi", sono stati ospitati da Alibaba, uno dei principali attori nel settore tecnologico cinese e sostenitore di alcuni degli unicorni di intelligenza artificiale dietro le più sofisticate capacità dello stato di sorveglianza. Il problema per la Cina è che questa ultima serie di dati esposti, scoperta da John Wethington, " usa il riconoscimento facciale per rilevare le etnie e le etichetta - come" 汉族 " per i cinesi Han, il principale gruppo etnico della Cina - e anche" 维族 " - o musulmani uiguri ". T sistemi ueste sono state affinate nel Xinjiang, un laboratorio di sorveglianza high-tech non vincolato in cui l'oppressione su scala industriale della popolazione musulmana uigura ha creato un'ondata di tardiva condanna internazionale negli ultimi mesi. Nel remoto Xinjiang, la difesa tesa e respinta è stata di terrorismo e sicurezza. È più difficile fare quel bastone nella capitale. Le tecnologie sviluppate dalla Cina (oppressivamente) nello Xinjiang e (più sensibilmente) in città come Pechino sono ora inesorabilmente esportate sotto una spinta sovvenzionata dallo stato verso una posizione dominante nel settore della sicurezza. Si tratta di un programma che ha alimentato lo sviluppo di tecnologie di sorveglianza avanzate da parte di giocatori esistenti e di nuovi entranti, senza nessuna redazione applicata. Mercoledì Human Rights Watch (HRW) ha esposto i dettagli di un'app per smartphone utilizzata dalla polizia di Xinjiang che comprendeva più fonti di dati sui cittadini monit...
Continua a Leggere

Stiamo davvero correndo verso un mondo in cui gli algoritmi di Intelligenza artificiale prodotti da Facebook saranno eseguiti direttamente sui nostri telefoni, monitorando ogni secondo della nostra vita, eliminando la crittografia, impedendoci di vedere o dire qualcosa che la società non gradisce e persino di inviare avvisi quando pronunciamo una frase non autorizzata? Questo è veramente il nostro futuro?

La scansione dei contenuti AI di Facebook Edge porta la sorveglianza e la censura in stile NSA sul pianeta Forse la più orwelliana di tutte le presentazioni di Facebook a F8 la settimana scorsa è stata una presentazione poco nota degli enormi investimenti dell'azienda verso l'esecuzione della moderazione dei contenuti direttamente sui telefoni degli utenti, consentendo a Facebook di scansionare anche messaggi WhatsApp cifrati da persona a persona per i contenuti Facebook o i governi repressivi non amano. Oggi Facebook analizza i post dopo che sono stati caricati sui server centrali, ma mentre l'azienda si muove verso un mondo decentrato di comunicazione criptato da persona a persona, guarda aggressivamente spostando il filtro dei contenuti direttamente sui telefoni degli utenti. Accoppiato con dichiarazioni precedentidalla società che considera la fotocamera, il microfono e la galleria fotografica privata non caricata dell'utente come un gioco equo per la ricerca su Facebook senza notifica o autorizzazione, il cambiamento di Facebook al limite suona in modo orwelliano rende gli spionaggio NSA divulgati dal suono di Edward Snowden come un gioco da ragazzi. Stiamo davvero correndo verso un mondo in cui gli algoritmi AI prodotti da Facebook saranno eseguiti direttamente sui nostri telefoni, monitorando ogni secondo della nostra vita, eliminando la crittografia, impedendoci di vedere o dire qualcosa che la società non gradisce e persino di inviare avvisi quando pronunciamo una frase non autorizzata? Questo è veramente il nostro futuro? A prima vista, la F8 parla " Applicare l'intelligenza artificiale per mantenere la piattaforma sicura " sembra una tipica presentazione tecnica di apprendimento approfondito. Una serie di ingegneri di Facebook fa il punto per parlare della complessità dell'esecuzione di grandi modelli avanzati di intelligenza artificiale su hardware mobile, dalla compressione e quantizzazione dei modelli al consumo energetico per ridurre al minimo ...
Continua a Leggere

L’intelligenza artificiale migliorerà o cambierà in peggio l’Umanità intervista a Stanford con Yuval Noah Harari e Fei-Fei Li da parte di Wired

L'INTELLIGENZA ARTIFICIALE MIGLIORERÀ O MANCHERÀ L'UMANITÀ? QUESTA SETTIMANA HO intervistato Yuval Noah Harari, l'autore di tre libri best-seller sulla storia e il futuro della nostra specie, e Fei-Fei Li , uno dei pionieri nel campo dell'intelligenza artificiale. L'evento è stato ospitato dallo Stanford Center for Ethics and Society , dallo Stanford Institute for Human-Centered Artificial Intelligence e dallo Stanford Humanities Center . Segue una trascrizione dell'evento e un video viene pubblicato di seguito. Nicholas Thompson: Grazie, Stanford, per averci invitato tutti qui. Voglio che questa conversazione abbia tre parti: in primo luogo, esponete dove siamo; quindi parla di alcune delle scelte che dobbiamo fare ora; e infine, parla di qualche consiglio per tutte le persone meravigliose nella sala. Yuval, l' ultima volta che abbiamo parlato , hai detto molte, molte cose brillanti, ma una che ha messo in risalto è stata una linea in cui hai detto: "Non siamo solo in una crisi tecnologica. Siamo in una crisi filosofica. "Quindi spiega cosa intendevi e spiega come si lega ad AI. Andiamo con una nota di angoscia esistenziale. Yuval Noah Harari: Sì, quindi penso che quello che sta succedendo ora è che la struttura filosofica del mondo moderno, che è stata fondata nel 17 ° e 18 ° secolo, attorno a idee come l'azione umana e il libero arbitrio individuale, viene messa alla prova come mai prima d'ora. Non da idee filosofiche, ma da tecnologie pratiche. E vediamo sempre più domande, che erano il pane e il burro del dipartimento di filosofia trasferito al dipartimento di ingegneria. E questo è spaventoso, in parte perché a differenza dei filosofi che sono persone estremamente pazienti, possono discutere qualcosa per migliaia di anni senza raggiungere alcun accordo e stanno bene, gli ingegneri non aspetteranno. E anche se gli ingegneri sono disposti ad aspettare, gli investitori dietro gli ingegneri non aspetteranno. Quindi significa che non abbiamo molto temp...
Continua a Leggere

Una patch Colorata per sfuggire ai sistemi di sorveglianza di intelligenza artificiale

Questa patch colorata ti rende praticamente invisibile all'IA La patch emette solo un algoritmo specifico, ma i ricercatori stanno lavorando su soluzioni più flessibili L'aumento della sorveglianza basata sull'intelligenza artificiale è estremamente preoccupante. La capacità dei governi di rintracciare e identificare i cittadini in massa potrebbe significare la fine dell'anonimato pubblico . Ma come i ricercatori hanno dimostrato più e più volte, ci sono modi per ingannare tali sistemi. L'ultimo esempio proviene da un gruppo di ingegneri dell'università di KU Leuven in Belgio. In un documento condiviso la scorsa settimana sul server di preprint arXiv, questi studenti mostrano come semplici schemi stampati possono ingannare un sistema di intelligenza artificiale progettato per riconoscere le persone nelle immagini. Se stampi uno dei taccuini appositamente progettati dagli studenti e lo appendi al collo, dal punto di vista dell'IA, puoi anche scivolare sotto un mantello dell'invisibilità. Come scrivono i ricercatori: "Crediamo che, se combiniamo questa tecnica con una sofisticata simulazione di abbigliamento, possiamo progettare una stampa su una T-shirt che possa rendere una persona praticamente invisibile per le telecamere di sorveglianza automatiche." (Non ne parlano, ma questo è, notoriamente, un importante dispositivo di trama nel romanzo di fantascienza Zero History di William Gibson.) Questo può sembrare bizzarro, ma in realtà è un fenomeno ben noto nel mondo dell'IA. Questi tipi di modelli sono noti come esempi di contraddittorio e sfruttano la fragile intelligenza dei sistemi di visione artificiale per indurli a vedere ciò che non c'è. In passato, per ingannare i sistemi di riconoscimento facciale sono stati usati esempi contraddittori. (Indossa solo un paio di occhiali speciali, e l'IA penserà che tu sia Milla Jovovich .) Sono stati trasformati in adesivi , stampati su oggetti 3D e persino usati per fare arte che può ingannare gli ...
Continua a Leggere

L’intelligenza artificiale e il pericolo che gli algoritmi stiano decidendo se concederci un prestito o mandarci in prigione

I principali sviluppatori di AI condividono i loro timori riguardo allo sviluppo della tecnologia troppo veloce Dimentica i robot che svolgono il nostro lavoro: dobbiamo essere più preoccupati che gli algoritmi stiano decidendo se ricevere un prestito o andare in prigione Per capire fino a che punto siamo arrivati ​​con lo sviluppo di AI, pensate a quando le auto sono state inventate per la prima volta, afferma Aleksandra (Saška) Mojsilović, un IBM Fellow e co-direttore di IBM Science for Social Good. "Era il selvaggio West", sostiene Mojsilović, "gente che guida a destra e sinistra, nessun segnale di stop o cinture di sicurezza." Mojsilović, che guida anche AI ​​fidato per IBM Research, sottolinea che le misure di sicurezza per le auto sono state costruite molto più tardi - dopo che si sono verificati incidenti. E se c'è qualcosa che impedisce a Mojsilović e alla sua collega Francesca Rossi, responsabile globale di AI Ethics dell'IBI Research, di svegliarsi di notte, è che i guardrail IA sono appena stati stabiliti. In alcuni casi, l'IA "sicura" probabilmente non è nemmeno presente sul radar della maggior parte delle persone. Considera che in questo momento, l'IA si sta facendo strada in ogni genere di innocue applicazioni quotidiane, come gli assistenti digitali che possono dirti il ​​tempo o tenere un elenco di generi alimentari in esecuzione, o un chatbot che prende il posto di un rappresentante del servizio clienti per trattare comunemente domande chieste. Tuttavia, quando si tratta di coloro che intendono potenziare il processo decisionale umano, come assumere candidati basati sul merito , o addestrare i lavoratori ad essere più etici , o mantenere la vostra compagnia di persone anziane dicendo loro battute o ricordando loro di prendere le loro medicine, tutto inizia a diventare un po 'più teso. E che dire degli algoritmi che aiutano a diagnosticare malattie o decidere chi riceve un prestito ? "Ci rende tutti molto a disagio", dice Mojsilović, "qu...
Continua a Leggere

Alla fine, tutti i droni dotati di Intelligenza artificiale, il drone di consegna dei pacchetti e la piattaforma di telecamere mobili AI sono solo un sistema di armi autonome in attesa

I droni di consegna pacchetto AI sono solo robot killer in attesa Mentre i governi di tutto il mondo continuano a discutere dei pregi e dei pericoli delle armi completamente autonome dotate di intelligenza artificiale, vale la pena di fare un passo indietro e osservare criticamente lo stato del paesaggio autonomo. I progressi in tutto, dai droni consumer al riconoscimento facciale al volo autonomo, stanno portando a una costante marcia in avanti di droni completamente autonomi in grado di navigare nell'ambiente umano e consegnare oggetti a individui specifici. Mentre la maggior parte della stampa si è concentrata sugli aspetti positivi di questi nuovi sistemi, le forze armate di tutto il mondo hanno trasformato avidamente questi strumenti in sistemi d'arma. I droni civili modificati oggi sono in grado di navigare negli spazi negati, cercando obiettivi basati sul riconoscimento facciale e fornendo forza letale, tutti utilizzano gli stessi strumenti e la stessa tecnologia sviluppata dalle università e dalle aziende per compiti utili come i droni di consegna dei pacchi per fornire aiuti alle regioni disastrate. Che aspetto ha il futuro quando ci rendiamo conto che i droni di consegna dei pacchi con alimentazione artificiale sono in realtà solo armi autonome in attesa? I politici di tutto il mondo hanno trascorso gli ultimi anni a discutere di un futuro inevitabile in cui i sistemi di armi sono sempre più automatizzati. Mentre i sistemi di armi autonome e semi-autonome sono state utilizzate in larga misura per decenni, fino ad oggi questi sistemi hanno automatizzato solo i loro compiti di navigazione e coordinamento, lasciando il bersaglio saldamente nelle mani degli umani. Eppure, mentre la società nel suo insieme si muove verso un'automazione sempre crescente, le forze armate occidentali sono costrette a cimentarsi con il semplice fatto che i loro avversari potrebbero non essere così avversi nell'auto-bersagliare le armi come se stessi. Le armi che pos...
Continua a Leggere

Il Bene e il male dell’intelligenza artificiale

Intelligenza artificiale: il bene e il male Per alcuni, la nozione di "intelligenza artificiale" evoca immagini di robot killer, un Terminator o mondi distopici, come in The Matrix. Ma per Peter McKinnon - che è stato coinvolto nel settore dagli anni '80 come imprenditore, ricercatore e osservatore - non è tutto negativo e dannoso per il futuro dell'IA. Il modo in cui il futurista di Ottawa lo racconta durante i seminari, e per questo giornale, l'intelligenza artificiale rientra in due categorie: il "flusso bianco" e il "flusso nero". Il flusso bianco indica gli usi benevoli della tecnologia per l'umanità. Ad esempio, McKinnon ha rilevato che l'intelligenza artificiale in patologia può migliorare le diagnosi e gli esiti per i pazienti malati. Il "flusso nero" è dove le cose diventano brutte. Ad esempio, fa emergere la possibilità di armi autonome che possono cercare e uccidere bersagli senza alcun essere umano nel circuito. In altre parole, l'intelligenza artificiale è come un fiammifero. "Posso usare un fiammifero per accendere il fuoco in un camino", ha detto MacKinnon, o "Posso usare un fiammifero per bruciare una casa … è un giudizio sul valore sociale, ciò che è buono, ciò che è male". Scienziato dagli anni '60, MacKinnon è stato coinvolto nell'IA durante quello che ha definito il suo primo rinascimento negli anni '80. Aveva fondato una società chiamata Canadian Artificial Intelligence Products Corp. che lavorava con la ex Cognos Inc. per un rapporto al governo sulle opportunità per l'IA in Canada. La tecnologia era ancora agli inizi e, sebbene possa sembrare molto avanzata ora, ha affermato che c'è ancora molta pista per l'innovazione. "Ciò che è avanzato oggi è il mattone di domani", ha detto. MacKinnon ha anche una previsione (altamente speculativa) per l'umanità con l'intelligenza artificiale, e c'è una possibilità di nuvole scure. Nei prossimi 25 anni, prevede cinque crescenti minacce basate sull'intelligenza ar...
Continua a Leggere

Intelligenza artificiale e sistema penale americano , ma le macchine copiano gli errori del passato ?

AI sta mandando le persone in prigione - e sta sbagliando L'uso di dati storici per addestrare strumenti di valutazione del rischio potrebbe significare che le macchine stanno copiando gli errori del passato A .I. potrebbe non avere un enorme impatto personale se il tuo pennello più frequente con gli algoritmi di apprendimento automatico è tramite il feed di notizie di Facebook o il posizionamento di ricerca di Google. Ma alla conferenza Data for Black Lives lo scorso fine settimana, tecnologi, esperti legali e attivisti della comunità hanno scattato le cose in prospettiva con una discussione sul sistema di giustizia penale americano. Lì, un algoritmo può determinare la traiettoria della tua vita. Gli Stati Uniti imprigionano più persone di qualsiasi altro paese al mondo. Alla fine del 2016, quasi 2,2 milioni di adulti erano detenuti in carceri o prigioni e altri 4,5 milioni erano in altre strutture correzionali. In altre parole, 1 adulto su 38 americani era sotto una qualche forma di supervisione correzionale. L'incubo di questa situazione è uno dei pochi problemi che uniscono i politici su entrambi i lati del corridoio. Sotto un'enorme pressione per ridurre il numero di prigioni senza rischiare un aumento della criminalità, le aule degli Stati Uniti si sono rivolte a strumenti automatizzati nel tentativo di mescolare gli imputati attraverso il sistema legale nel modo più efficiente e sicuro possibile. È qui che inizia la parte dell'intelligenza artificiale della nostra storia. I dipartimenti di polizia utilizzano algoritmi predittivi per definire strategie su dove inviare i propri ranghi. Le forze dell'ordine utilizzano sistemi di riconoscimento facciale per aiutare a identificare i sospetti. Queste pratiche hanno ottenuto un meritato scrutinio se effettivamente migliorano la sicurezza o semplicemente perpetuano le disuguaglianze esistenti. I ricercatori e i difensori dei diritti civili , ad esempio, hanno ripetutamente dimostrato che i sistemi di ric...
Continua a Leggere

Facebook e il fallimento della intelligenza artificiale come nel caso della strage in Nuova Zelanda ci mostra i limiti dei colossi che gestiscono il mondo

L'AI fallita di Facebook mostra i pericoli dei tecnologi che gestiscono il mondo In mezzo alla raffica di critiche sul motivo per cui i suoi algoritmi AI fortemente propagandati non hanno contrassegnato il video della Nuova Zelanda, Facebook ha rilasciato una dichiarazione mercoledì sera che tentava di spiegare la sua responsabilità come un limite dei dati di addestramento dell'IA e la mancanza di revisori di contenuti sufficienti. Eppure, in realtà, la risposta di Facebook ha documentato in modo squisitamente dettagliato tutte le ragioni per cui è così pericoloso cedere sempre più il funzionamento del nostro mondo digitale a tecnici che non hanno la più semplice comprensione di come funzioni il mondo reale. Dopo anni passati a propagandare i suoi immensi progressi nell'IA e in che modo stava scommettendo sull'intero futuro della compagnia sulla moderazione dei contenuti AI, la scorsa settimana l'abiezione di Facebook di contrassegnare il video della Nuova Zelanda ha portato a una serie di concessioni dalla società che i suoi strumenti di intelligenza artificiale semplicemente non sono così avanzati come ha affermato. La dichiarazione della società Mercoledì sera ha rivelato una serie di affascinanti approfondimenti sul perché gli sforzi di moderazione dei contenuti dell'azienda sono falliti in modo così spettacolare in così tanti modi. Alla domanda se la società ritenesse di avere un numero sufficiente di moderatori umani per esaminare il contenuto che fluisce attraverso la sua piattaforma, un portavoce ha rifiutato di commentare. Tuttavia, nella sua dichiarazione Mercoledì sera, Facebook ha respinto l'idea di introdurre il tipo di ritardo di trasmissione utilizzato dalle reti televisive per catturare contenuti inappropriati, sostenendo che i suoi "milioni di trasmissioni quotidiane" sono semplicemente troppo per il suo piccolo gruppo di moderatori di contenuti revisionare. L'argomento della società secondo cui ha pochi moderatori di contenuti d...
Continua a Leggere

Il pericolo di dare delle regole all’intelligenza artificiale , ma di sicuro non possiamo fare in modo che la IA si autoregoli

Perché è pericoloso per l'IA regolarsi Con l'evolversi dell'intelligenza artificiale (AI), molti dei rischi associati alla tecnologia sono tutti troppo umani. Per esempio, alcuni scrittori temono che le armi autonome possano finire per essere macchine da guerra di genocidio , ma basta dare un'occhiata alla storia per comprendere che gli umani hanno commesso crimini di guerra fin dagli albori della civiltà. Allo stesso modo, come è intelligenza artificiale che esibisce pregiudizi razziali o di genere (come spiegato in Scienze rivista) o prende le decisioni finanziarie errate è così diverso da quello che gli esseri umani già fanno da soli? Questi problemi troppo umani possono confondere le acque quando le aziende analizzano i rischi, i benefici e le responsabilità associate all'IA. Così, t settore ech gruppi di pressione come l'Information Technology Industry Council (ITI) sostengono che l'AI non dovrebbe essere sovraregolamento e sostengono che le nuove leggi, le tasse e le regole “possono ostacolare inavvertitamente o inutilmente lo sviluppo responsabile e l'uso di intelligenza artificiale.” Perché l'intelligenza artificiale dovrebbe essere regolata … ma non dall'IA In un mondo ideale, l'ITI potrebbe avere ragione. Gli sviluppatori potrebbero concepire intelligentemente l'intelligenza artificiale in grado di autoregolarsi. Tuttavia, attualmente non viviamo in un mondo ideale. Il mondo in cui viviamo, ad esempio, è già quello in cui i robot possono uccidere , i chatbot creano i loro modi di comunicare e le smart TV sono in grado di spiare i loro proprietari . Uno dei pensatori più influenti su come gestire l'intelligenza artificiale è Isaac Asimov, le cui tre leggi della robotica affermano: "1. Un robot non può ferire un essere umano o, attraverso l'inazione, permettere a un essere umano di venire a fare del male. Un robot deve obbedire agli ordini che gli vengono dati da esseri umani, tranne nel caso in cui tali ordini siano in co...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi