Home / Archive by category "Intelligenza artificiale pericolo"

Intelligenza artificiale pericolo

Robust Intelligence

Un professore di Harvard ei suoi studenti hanno raccolto 14 milioni di dollari per reprimere gli attacchi di intelligenza artificiale antagonistica Robust Intelligence può rilevare controlli fraudolenti Aggiungendo alcuni pixel (evidenziati in rosso) a un assegno legittimo, i truffatori possono indurre i modelli di intelligenza artificiale a confondere un assegno da $ 401 a $ 701. Inosservato, l'exploit potrebbe portare a frodi finanziarie su larga scala. Yaron Singer è diventato professore ordinario ad Harvard in sette anni in sette anni, alimentato dal suo lavoro sull'apprendimento automatico antagonistico, un modo per ingannare i modelli di intelligenza artificiale utilizzando dati fuorvianti. Ora, la startup Robust Intelligence di Singer, che ha formato con un ex dottorato di ricerca. consigliere e due ex studenti, sta uscendo dalla furtività per portare le sue ricerche sul mercato. Quest'anno, l'intelligenza artificiale rappresenterà 50 miliardi di dollari di spesa aziendale, sebbene le aziende stiano ancora cercando di capire come implementare la tecnologia nei loro processi aziendali. Le aziende stanno ancora cercando di capire come proteggere la propria intelligenza artificiale da una cattiva intelligenza artificiale, come un deepfake vocale generato da algoritmi che può falsificare i sistemi di autenticazione vocale. “Agli albori di Internet, era progettato come se tutti fossero dei bravi attori. Poi, le persone hanno iniziato a creare firewall perché hanno scoperto che non tutti lo erano ", afferma Bill Coughran, ex vicepresidente senior dell'ingegneria di Google. "Stiamo vedendo segni della stessa cosa accadendo con questi sistemi di apprendimento automatico. Dove ci sono soldi, i cattivi attori tendono a entrare ". Entra in Robust Intelligence, una nuova startup guidata dal CEO Singer con una piattaforma che secondo la società è addestrata a rilevare più di 100 tipi di attacchi avversari. Sebbene i suoi fondatori e la maggior parte del tea...
Continua a Leggere

Il kill-switch il pulsante rosso di arresto per l’intelligenza artificiale

L'uso di un kill-switch o di un pulsante rosso di arresto per l'intelligenza artificiale è una proposta di dadi, anche per le auto a guida autonoma Associato alla fornitura di una capacità di arresto di emergenza, un pulsante rosso evidente è spesso incluso sui dispositivi meccanici ed elettronici per consentire un modo rapido per fermare una macchina che sembra andare fuori strada. Questo knockout urgente può essere implementato tramite un pulsante che viene premuto, o usando un kill-switch, o una manopola di spegnimento, una leva di spegnimento e così via. In alternativa, un altro approccio implica semplicemente staccare la spina (farlo letteralmente o potrebbe alludere ad altri mezzi per togliere l'alimentazione a un sistema). Oltre a utilizzare questi atti di arresto nel mondo reale, una pletora di film e racconti di fantascienza hanno ritratto grandi pulsanti rossi o il loro equivalente come un elemento vitale in trame piene di suspense. Abbiamo ripetutamente visto sistemi di intelligenza artificiale in storie del genere che vanno completamente fuori di testa e l'eroe umano deve affrontare minacce subdole per raggiungere un interruttore e fermare qualsiasi carneficina o conquista globale fosse in corso. Un kill switch o un pulsante rosso offrono davvero una tale panacea nella realtà? La risposta è più complicata di quanto possa sembrare a prima vista. Quando un sistema complesso basato sull'intelligenza artificiale è attivamente in corso, la convinzione che un arresto di emergenza fornirà un sollievo immediato sufficiente e sicuro non è necessariamente garantita. In breve, l'uso di uno spegnimento immediato può essere problematico per una miriade di motivi e potrebbe introdurre anomalie e problemi che non bloccano effettivamente l'IA o potrebbero avere conseguenze negative inaspettate.
Continua a Leggere

La Turchia e le armi con intelligenza artificiale

La Turchia rivoluziona ulteriormente il settore della difesa con la tecnologia AI Il settore della difesa turco sta abbracciando ulteriormente la tecnologia di intelligenza artificiale (AI) con vari nuovi sviluppi. Diverse agenzie di stampa statali hanno dettagliato le strategie di intelligenza artificiale, tra cui le industrie aerospaziali turche (TAI) e il suo focus sull'intelligenza artificiale in tutte le sue piattaforme. TAI è il principale sviluppatore di piattaforme aeree in Turchia. Secondo un rapporto del 2018 , "la comprensione dei decisori politico-militari turchi, la comprensione delle élite dell'industria della difesa e l'approccio delle industrie della difesa ai droni vedono fermamente i sistemi militari senza equipaggio e la guerra robotica come qualcosa di più che 'semplicemente 'portafoglio di modernizzazione militare, un'opportunità per aprire la strada alla prossima svolta geopolitica ". Il rapporto prosegue affermando che questa "rivoluzione tecno-scientifica e il prossimo paradigma militare" non si limita solo ai sistemi senza pilota telecomandati, ma l'obiettivo principale delle guerre future sarà l'intelligenza artificiale, l'autonomia e la guerra robotica avanzata. TAI sta attualmente sviluppando sistemi autonomi, sistemi di elaborazione delle immagini, sistemi di supporto decisionale e infrastruttura di analisi dei big data, ed è diventata la prima grande azienda della difesa in Turchia a stabilire un'unità separata per gli studi sull'IA. Lo sviluppatore ha lavorato con varie istituzioni accademiche e ha in corso quattro progetti di IA in corso. Güven Orkun Tanik è il direttore generale dell'AI e del machine learning presso TAI. "Gli esempi dei sistemi di intelligenza artificiale saranno più comuni nel prossimo futuro", ha affermato in merito ai recenti esercizi del governo degli Stati Uniti che mettono un pilota umano contro l'IA. "Questa tecnologia, che contribuisce alle capacità umane, offre opportunità in ogni campo ...
Continua a Leggere

Telegram e i bot deepfake usati per creare immagini di falsi-nudi

I robot deepfake su Telegram rendono il lavoro di creazione di nudi falsi pericolosamente facile I bot sono stati utilizzati per creare più di 100.000 immagini I ricercatori hanno scoperto un "ecosistema deepfake" sull'app di messaggistica Telegram incentrato su bot che generano falsi nudi su richiesta. Gli utenti che interagiscono con questi bot affermano che stanno principalmente creando nudi di donne che conoscono utilizzando immagini tratte dai social media, che poi condividono e scambiano tra loro in vari canali Telegram. L'indagine proviene dalla società di sicurezza Sensity, che si concentra su ciò che chiama "intelligence visiva sulle minacce", in particolare sulla diffusione dei deepfake. I ricercatori di Sensity hanno scoperto che più di 100.000 immagini sono state generate e condivise nei canali pubblici di Telegram fino a luglio 2020 (il che significa che il numero totale di immagini generate, comprese quelle mai condivise e quelle realizzate da luglio, è molto più alto). La maggior parte degli utenti di questi canali, circa il 70%, proviene dalla Russia e dai paesi limitrofi, afferma Sensity. The Verge ha potuto confermare che molti dei canali indagati dall'azienda sono ancora attivi. GLI OBIETTIVI DEI ROBOT APPARENTEMENTE INCLUDONO BAMBINI MINORENNI I bot sono gratuiti, ma generano finti nudi con filigrane o solo nudità parziali. Gli utenti possono quindi pagare una tariffa pari a pochi centesimi per "scoprire" completamente le immagini. Una "tariffa per principianti" addebita agli utenti 100 rubli (circa $ 1,28) per generare 100 nudi falsi senza filigrane per un periodo di sette giorni. Sensity afferma che "un numero limitato" di immagini generate dal bot presenta obiettivi "che sembravano essere minorenni". Sia The Verge che Sensity hanno contattato Telegram per chiedere perché consentono questo contenuto sulla loro app ma non hanno ancora ricevuto risposte. Sensity dice di aver contattato anche le autorità preposte all'applicazione dell...
Continua a Leggere

Sondaggio di Oxford su macchine o robot, spesso noti come intelligenza artificiale aiuteranno o danneggeranno le persone nei prossimi 20 anni

Il mondo sembra essere diviso sull'intelligenza artificiale: nuovo sondaggio di Oxford "54.195 intervistati in 142 paesi hanno preso parte a questo sondaggio che coinvolge l'IA nei nostri affari personali e nella vita pubblica". La parola AI è ora disponibile e si fa strada attraverso i laboratori di ricerca nella nostra vita quotidiana. L'intelligenza artificiale attualmente in uso forma in realtà un sottoinsieme dell'IA, chiamato apprendimento automatico. Tuttavia, abbastanza significativo. Mentre le nazioni esplorano modi per sfruttare il potere degli algoritmi, il governo inevitabilmente incapperà nei difetti degli algoritmi; i pregiudizi sono stati una sfida enorme da un po 'di tempo ormai. Che si tratti dei pregiudizi o dell'insicurezza che circonda l'acquisizione dell'IA, il mondo è stato diviso sull'inclusione dell'IA. Per comprendere i sentimenti in tutto il mondo e il loro atteggiamento nei confronti dell'IA, la Commissione di Oxford sull'intelligenza artificiale e il buon governo ha condotto un sondaggio . Informazioni sul sondaggio I dati per questo sondaggio sono stati presi dal World Risk Poll 2019. Sulla base del quale i ricercatori di Oxford hanno analizzato l'opinione pubblica tratta da un campione di 154.195 intervistati che vivono in 142 paesi. Più di cinquemila intervistatori hanno condotto le interviste tra l'8 maggio 2019 e il 17 gennaio 2020. Secondo il rapporto del sondaggio, sono stati intervistati almeno 1.000 intervistati per ogni nazione e la popolazione campionata rappresentava l'intera popolazione dai quindici anni in su. Risultati chiave Ai partecipanti è stato chiesto se "macchine o robot, spesso noti come intelligenza artificiale", "aiuteranno o danneggeranno maggiormente le persone nei prossimi 20 anni". Agli intervistati sono state date tre opzioni per scegliere tra "principalmente danno", "principalmente aiuto" e "nessuno dei due". "Un valore anomalo, ad esempio, è la Cina, dove solo il 9% degli intervist...
Continua a Leggere

L’intelligenza artificiale può essere etica, ma è prudente?

Ti ricordi la storia di un padre arrabbiato che è entrato in un supermercato Target per lamentarsi del fatto che sua figlia adolescente avesse ricevuto buoni di maternità, solo per scoprire pochi giorni dopo che era incinta? La storia proveniva da un articolo del New York Times del 2012 e segnalava l'arrivo dell'analisi predittiva. Nonostante il ragionevole scetticismo sul fatto che la storia fosse reale, ha contribuito ad avviare un dibattito etico sulla privacy dei consumatori che si è solo intensificato. Oggi viviamo in un mondo con capacità predittive più potenti e più dati personali da sfruttare. Abbiamo raggiunto un'era in cui l'intelligenza artificiale può fare molto di più di una gravidanza adolescenziale. Le organizzazioni che sviluppano un'IA legale e moralmente difendibile si trovano ancora a lottare con la saggezza delle loro creazioni. Nel 2012, Andrew Pole, il programma di previsione della gravidanza di Target, il creatore, ha detto questo al New York Times: “Siamo molto conservatori riguardo al rispetto di tutte le leggi sulla privacy. Ma anche se stai seguendo la legge, puoi fare cose in cui le persone si sentono nauseate ". Cosa fai quando ti senti nauseato per un nuovo programma di intelligenza artificiale, anche se è probabilmente etico? Come decidi se andare avanti? Considera alcuni esempi contemporanei. Probabilmente hai visto molte storie su come possiamo sfruttare l'intelligenza artificiale per prevedere i risultati del Covid-19. Possiamo utilizzare dati demografici e sanitari per costruire un modello di apprendimento automatico che preveda i risultati dei pazienti in base a molteplici variabili: condizioni di salute precedenti, comportamenti, condizioni di vita e ambiente. Possiamo utilizzare questi dati per prevedere come potrebbe progredire l'infezione di un paziente e creare un piano di trattamento personalizzato. È un programma che probabilmente non farà sentire nauseato a nessuno, giusto? Ma sta prendendo dati sulla salute personal...
Continua a Leggere

Per moderare i contenuti online è meglio usare l’intelligenza artificiale AI oppure no

Moderazione dei contenuti online: per AI o no La scorsa settimana, YouTube ha deciso di portare più moderatori umani a esaminare i contenuti sulla piattaforma di streaming. In un'intervista , il Chief Product Officer di YouTube Neal Mohan ha affermato che la mancanza di supervisione umana ha indotto i moderatori basati su macchine a rimuovere ben 11 milioni di video, il che non ha infranto nessuna delle linee guida della community. Mohan ha detto: "Anche 11 milioni sono una frazione molto, molto piccola, minuscola dei video complessivi su YouTube. . . ma era un numero maggiore rispetto al passato. " Va notato che YouTube , in un lungo post sul blog, nel marzo di quest'anno, ha affermato che avrebbero implementato più moderatori basati su computer e AI per la revisione del contenuto senza alcun intervento umano. Ciò è stato fatto tenendo conto delle nuove condizioni di lavoro nella pandemia . Anche Twitter aveva annunciato una decisione simile. Quindi, qual è la moderazione migliore, umana o basata sull'intelligenza artificiale? AI per la moderazione dei contenuti La moderazione dei contenuti è diventata una pratica molto importante per diverse piattaforme digitali e multimediali, siti Web di social media e mercati di e-commerce per guidare la loro crescita. Implica la rimozione di contenuti che contengono argomenti irrilevanti, osceni, illegali o inappropriati ritenuti inadatti alla visualizzazione pubblica. L'intelligenza artificiale sta aiutando questo processo di moderazione a ottimizzarlo attraverso algoritmi per apprendere dai dati esistenti e prendere decisioni di revisione per il contenuto. Principalmente, i sistemi di moderazione basati sull'intelligenza artificiale visualizzano i contenuti in due sensi generali: moderazione basata sui contenuti e moderazione basata sul contesto. La moderazione basata sui contenuti include inoltre la moderazione dei contenuti sia di testo che di immagini / video . L'elaborazione del linguaggio naturale...
Continua a Leggere

L’intelligenza artificiale AI è una minaccia esistenziale

L'IA è una minaccia esistenziale? Quando si discute di Intelligenza Artificiale (AI), un dibattito comune è se l'IA sia una minaccia esistenziale. La risposta richiede la comprensione della tecnologia alla base del Machine Learning (ML) e il riconoscimento che gli esseri umani hanno la tendenza ad antropomorfizzare. Esploreremo due diversi tipi di AI, Artificial Narrow Intelligence (ANI) che è ora disponibile ed è motivo di preoccupazione, e la minaccia più comunemente associata alle interpretazioni apocalittiche di AI che è Artificial General Intelligence (AGI). Minacce di intelligenza ristretta artificiale Per capire cos'è ANI è sufficiente capire che ogni singola applicazione AI attualmente disponibile è una forma di ANI. Questi sono campi dell'IA che hanno un campo ristretto di specialità, ad esempio i veicoli autonomi usano l'IA che è progettata con l'unico scopo di spostare un veicolo dal punto A al punto B. Un altro tipo di ANI potrebbe essere un programma di scacchi ottimizzato per giocare scacchi, e anche se il programma di scacchi migliora continuamente se stesso utilizzando l' apprendimento per rinforzo , il programma di scacchi non sarà mai in grado di utilizzare un veicolo autonomo. Concentrandosi su qualunque operazione di cui è responsabile, i sistemi ANI non sono in grado di utilizzare l'apprendimento generalizzato per conquistare il mondo. Questa è la buona notizia; la cattiva notizia è che, con la sua dipendenza da un operatore umano, il sistema di intelligenza artificiale è suscettibile a dati distorti, errori umani o, peggio ancora, un operatore umano canaglia. Sorveglianza AI Potrebbe non esserci pericolo maggiore per l'umanità degli umani che usano l'IA per invadere la privacy e, in alcuni casi, l'uso della sorveglianza dell'IA per impedire completamente alle persone di muoversi liberamente. La Cina, la Russia e altre nazioni hanno approvato regolamenti durante COVID-19 per consentire loro di monitorare e controllare il movimento...
Continua a Leggere

Alexa Siri e Google Assistant il futuro (e il pericolo) degli assistenti intelligenti AI

Scorciatoie Siri e scorciatoie dell'Assistente Google rivelano il futuro (e il pericolo) degli assistenti intelligenti AI In tal modo, entrambi ci mostrano la potenza del prossimo futuro degli assistenti intelligenti basati sull'intelligenza artificiale. E stanno evidenziando la vulnerabilità delle app. Se prendi spesso un caffè al mattino, Siri se ne accorgerà e inizierà a suggerirlo. E nella beta di iOS 14 che sto attualmente testando, sto notando molti più suggerimenti di Siri. Alcuni di loro sono molto semplici, come suggerire di impostare la sveglia per il mio solito orario di alzarsi. Altri sono più sofisticati, come l'offerta di mettere il mio telefono in modalità non disturbare quando avvio un live streaming o una registrazione di un podcast. Allo stesso modo, Google Assistant sta lanciando la possibilità di controllare di più le app tramite comandi come "nuovo tweet", che aprirà Twitter con la finestra di composizione del tweet aperta, pronta e in attesa. A livello tecnico, quello che sta succedendo qui è che gli sviluppatori stanno inserendo degli hook nelle app che gli assistenti AI come Siri e Google Assistant possono attivare. Apple lo sta portando al livello successivo con l'app Shortcuts, che ti consente di collegare più azioni in più app insieme, proprio come Amazon e Google hanno fatto con le routine Alexa e le routine dell'Assistente Google. Con le scorciatoie o le routine, puoi spegnere le luci, accendere un allarme, chiudere a chiave le porte e metterti a dormire. A livello di esperienza utente, è un enorme risparmio di tempo. Si passa dal dover potenzialmente accedere a tre diverse app per tre capacità distinte, al rilascio di un comando vocale. Ma le capacità fanno sorgere la domanda: perché hai bisogno delle app? Se Siri, Google o Alexa vedono uno schema e suggeriscono una linea di condotta, perché non possono semplicemente intraprendere l'azione da soli? Ad esempio, se Siri nota che ordini un caffè nell'app S...
Continua a Leggere

Incontreremo HAL 9000 nella nostra vita ?

Possiamo incontrare HAL 9000 nella nostra vita La razza umana si evolve ogni giorno che passa e ciò che si evolve parallelamente è l' uso dell'IA . Da Alexa che diventa il nuovo membro della nostra famiglia alle auto senza conducente ai consigli della piattaforma OTT, siamo ben circondati da algoritmi. L'intelligenza artificiale è diventata il nome familiare negli ultimi dieci anni e ha fatto passi da gigante. Questi progressi danno molta speranza al vecchio sogno classico di creare l'intelligenza umana utilizzando algoritmi. Mentre ci siamo concentrati sull'IA debole, c'è un altro lato dell'IA che viene indicato dai ricercatori come L'IA forte che viene chiamata con nomi diversi che variano da IA ​​forte ad AGI a AI completa. Roots of Strong AI risale al personaggio immaginario ' HAL 9000 ' nel film '2001' in cui Arthur C. Clarke, l'antagonista, ha mostrato lo scorcio della possibilità che potrebbe aprirsi se costruiamo un'IA forte. Tuttavia, il vero avvento dell'IA forte fu quando il pioniere dell'IA Herbert A. Simon nel 1965 scrisse: "Le macchine saranno in grado, entro vent'anni, di svolgere qualsiasi lavoro che un uomo possa fare." Anche dopo cinque decenni, stiamo ancora lottando con le stesse domande su Strong AI . Ci sono alcuni passi avanti che abbiamo fatto in questo campo, ma non abbiamo una svolta importante. Molte istituzioni educative pioniere stanno collaborando e ricercando in questo spazio - il MIT ha presentato un corso in AGI nel 2018 - ma ancora, la luce nel tunnel sembra troppo lontana. Ci sono due serie di punti di vista che otteniamo dalla comunità di ricerca. Da una parte abbiamo Henry Markram, direttore del Blue Brain Project, che dice "Non è impossibile costruire un cervello umano e possiamo farlo in 10 anni", dall'altra abbiamo un robotista del MIT, Rodney Brooks , che dice che AGI non sarebbe possibile nemmeno fino al 2300. Mentre possiamo percepire il contrasto di ottimismo e pessimismo nelle opinioni di cui...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi