Home / Filosofia e IA / Le conseguenze inattese dei big data

Le conseguenze inattese dei big data

Di Jim Sinur

I Big Data sono l’inaspettata ricchezza di risorse del secolo in corso. La legge di Moore ha guidato i progressi nella potenza di elaborazione, l’ascesa di archiviazione economica e i progressi nella progettazione di algoritmi hanno consentito l’acquisizione, l’archiviazione e l’elaborazione di molti tipi di dati precedentemente non disponibili per l’uso nei sistemi di elaborazione. Documenti, e-mail, messaggi di testo, file audio e immagini sono ora in grado di trasformarsi in un formato digitale utilizzabile per l’uso da parte dei sistemi di analisi, in particolare dell’intelligenza artificiale. I sistemi di intelligenza artificiale possono scansionare enormi quantità di dati e trovare sia modelli che anomalie precedentemente impensabili e farlo in un arco di tempo inimmaginabile. Mentre la maggior parte degli usi dei Big Data sono stati abbinati agli algoritmi AI / machine learning in modo che le aziende e capiscano i loro clienti “

Nell’assistenza sanitaria, i big data e le analisi stanno aiutando l’industria a passare da un modello pay-per-service che rimborsa ospedali, medici e altri operatori sanitari dopo che il servizio è stato eseguito a un nuovo approccio che li rimborsa in base all’esito del servizio, in particolare la posta -servizio di salute del paziente. Questo approccio è possibile solo se ci sono dati sufficienti per capire come il paziente si rapporta alla vasta popolazione di altri pazienti che hanno avuto la stessa procedura / servizio e il risultato atteso. Mentre sono coinvolti una varietà di altri fattori, come la cooperazione del paziente con il piano di trattamento, tali fattori possono essere monitorati e analizzati, fornendo un chiaro percorso sulle migliori pratiche e sui risultati previsti sulla base di prove. Quando questo è combinato con miglioramenti diagnostici resi possibili usando l’intelligenza artificiale per trovare modelli nei campioni di sangue e di tessuti o nella scansione di immagini radiologiche e nel rilevamento di anomalie, la capacità del medico di determinare il problema esatto e suggerire il miglior percorso terapeutico per una determinata situazione è senza pari . Il risultato per la società per questo esempio dovrebbe essere un drammatico aumento dell’efficienza con conseguente riduzione del costo del servizio. Tuttavia, le stesse tecnologie che sono in grado di offrire questi impareggiabili benefici sono anche in grado di fornire la piattaforma per una serie inimmaginabile di usi fraudolenti. Il risultato per la società per questo esempio dovrebbe essere un drammatico aumento dell’efficienza con conseguente riduzione del costo del servizio. Tuttavia, le stesse tecnologie che sono in grado di offrire questi impareggiabili benefici sono anche in grado di fornire la piattaforma per una serie inimmaginabile di usi fraudolenti. Il risultato per la società per questo esempio dovrebbe essere un drammatico aumento dell’efficienza con conseguente riduzione del costo del servizio. Tuttavia, le stesse tecnologie che sono in grado di offrire questi impareggiabili benefici sono anche in grado di fornire la piattaforma per una serie inimmaginabile di usi fraudolenti.

Prova di abuso

Un caso interessante dell’imprevisto si è verificato nel Regno Unito, in cui un gruppo di criminali con una conoscenza molto sofisticata dell’IA e dei big data sono stati in grado di truffare un certo numero di organizzazioni per trasferire ingenti somme di denaro su conti fraudolenti. Secondo la BBC, i criminali hanno catturato una serie di registrazioni vocali dal CEO che ha fatto chiamate agli investitori. Hanno analizzato le registrazioni vocali con un programma di abbinamento dei pattern AI per ricreare parole e parti del discorso. Hanno quindi creato una nuova registrazione con la voce del CEO che dirige il CFO per trasferire fondi a un account specifico in caso di emergenza. Hanno inviato la registrazione tramite posta vocale al CFO e hanno persino falsificato il numero del CEO. Pensa a questo come un attacco “robocall” fraudolento estremamente sofisticato che utilizza l’IA per replicare la voce di una persona conosciuta e di fiducia che invia istruzioni esplicite che richiedono una conformità urgente. Mentre normalmente questo non funzionerebbe a causa di processi organizzativi e protezioni di sicurezza, dato il giusto insieme di circostanze, può avere successo. Inoltre, il livello di conoscenza, tempo e denaro necessari per preparare e lanciare questo tipo di attacco limita la sua capacità di essere facilmente replicato. Tuttavia, quando saranno disponibili più dati vocali e gli algoritmi e le tecniche di intelligenza artificiale diventeranno più facili da usare, possiamo aspettarci che questi tipi di dati e l’uso improprio della tecnologia diventino più diffusi. Si può immaginare un caso in cui la voce di una persona cara in difficoltà viene inviata a un genitore o nonno in cerca di una certa quantità di denaro da inviare immediatamente sulla carta o sul conto.

Allo stesso modo, la tecnologia di riconoscimento facciale ha il potenziale per identificare e autenticare le persone in base all’utilizzo della sofisticata tecnologia della fotocamera che si trova nei telefoni cellulari e in altri dispositivi di registrazione di videocamere e video che sono diventati pervasivi nel nostro mondo. Tuttavia, poche persone comprendono davvero i limiti di questi dispositivi quando si tratta di identificare accuratamente le persone in diverse situazioni ambientali. Nel caso della migliore tecnologia disponibile in commercio, il tasso di accuratezza, in condizioni di illuminazione sufficiente e in uno spazio “contrassegnato” o limitato, supera il 90%. Questo scende a circa il 65% se le condizioni di illuminazione cambiano o la persona si trova in un posto come un centro commerciale o un’arena all’aperto. Ora, aggiungi a ciò il significativo tasso di errore che si verifica per le persone con tonalità della pelle che sono più vicine di colore ai loro accessori,

Cosa fare

Quindi, la domanda è; cosa possiamo fare per scommettere i vantaggi dell’IA e dei big data e proteggerci dal rischio al ribasso che queste tecnologie comportano? Innanzitutto, renditi conto che, come dice il vecchio adagio, il Genio non può essere rimesso nella bottiglia. Dovremo convivere ed essere pronti a gestire i rischi che ciascuna di queste tecnologie comporta. Nella nostra pratica, lavoriamo con i clienti per identificare i tipi di dati critici, i tipi di decisione e le azioni / i risultati che richiedono una protezione di livello elevato. Questo è uno sforzo globale che si traduce in una matrice di minaccia di risorse digitali con le azioni richieste corrispondenti. Tuttavia, chiunque o l’organizzazione, indipendentemente dalle dimensioni che possono iniziare:

Comprendere i tipi di dati che tu e la tua organizzazione avete in vostro possesso (immagini / immagini, testo, fogli di calcolo) e decidere quali dati siete disposti a condividere e in quali circostanze. Ciò è particolarmente importante per i singoli dati biometrici. Rimani impegnato con i documenti e gli eventi emergenti sull’argomento “I tuoi dati”
Sviluppa regole specifiche per quando intraprenderete azioni come il trasferimento di denaro e chi (forse più persone) è in grado di autorizzare la transazione e in quali circostanze.
Chiedi al tuo fornitore di analisi o al tuo team di analisi di mostrarti il tasso di accuratezza attuale e storico testato di qualsiasi software utilizzato per prendere decisioni critiche. Perché dovresti consentire a qualcosa con un tasso di accuratezza marginale di aiutare nel processo decisionale, specialmente quando hai a che fare con qualcosa di così importante come l’applicazione della legge? Questo vale anche per altri software analitici come i servizi di analisi del sangue e delle urine.
Salvaguarda i tuoi dati nel contesto dell’utilizzo tramite monitoraggio, mining e audit casuali. Di solito ci sono tendenze e racconta l’uso dei tuoi dati internamente ed esternamente.
Resta al passo con le attività e i risultati di eventi e pubblicazioni “Deep-Fake”. L’uso dell’IA e degli algoritmi per ingannare le istituzioni e gli individui è in aumento portando a realtà alternative.
Netto; Netto:

Infine, a livello individuale, ricorda che sono i tuoi dati . Non acconsentire a condividerlo con qualsiasi app o richiesta di informazioni, in particolare lotterie online o e-mail che ti dicono che sei un vincitore, basta darci le tue informazioni di contatto! Questi potrebbero essere truffe e non vuoi finire vittima delle conseguenze indesiderate dei big data e dell’intelligenza artificiale!

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi