Home / Archive by category "ML Machine Learning"

ML Machine Learning

I migliori Strumenti per la costruzione di modelli di apprendimento automatico Machine Learning su Android

Da quando Android è nato per la prima volta nel 2008, è diventata la più grande piattaforma mobile al mondo in termini di popolarità e numero di utenti. Nel corso degli anni, gli sviluppatori Android hanno realizzato progressi nell'apprendimento automatico, funzionalità come il riconoscimento vocale sul dispositivo, l'interattività video in tempo reale e miglioramenti in tempo reale quando si scatta una foto / selfie. Inoltre, il riconoscimento delle immagini con l'apprendimento automatico può consentire agli utenti di puntare la fotocamera dello smartphone verso il testo e di tradurlo dal vivo in 88 lingue diverse con l'aiuto di Google Translate. Gli utenti Android possono persino puntare la fotocamera verso un bellissimo fiore, utilizzare Google Lens per identificare il tipo di fiore che è, quindi impostare un promemoria per ordinare un bouquet per qualcuno. Google Lens è in grado di utilizzare modelli di visione artificiale per espandere e accelerare la ricerca sul Web e l'esperienza mobile. Google ha lavorato a lungo per rendere i dispositivi Android adatti anche a piccoli modelli ML. I progetti Mobile ML comportano sfide uniche nel convertire e implementare i modelli nei dispositivi giusti al momento giusto. Questi si concentrano solitamente sull'uso di modelli pre-addestrati o sulla riqualificazione di quelli esistenti. Ma l'azienda ha assicurato che esiste anche spazio per i modelli personalizzati. TensorFlow Lite TensorFlow Lite è un popolare framework di deep learning open source, che può essere utilizzato sull'inferenza mobile su dispositivo. In seguito all'annuncio da parte di Apple di Core ML, Google ha rilasciato TensorFlow Lite , la prossima evoluzione di TensorFlow Mobile, che ha promesso prestazioni migliori essendo in grado di sfruttare l'accelerazione hardware sui dispositivi che la supportano. Questo framework di Google può eseguire modelli di machine learning su dispositivi Android e iOS. Oggi, TensorFlow Lite viene utilizzat...
Continua a Leggere

Un Modello epidemiologico in Machine Learning per prevedere la progressione del Coronavirus Covid 19 con la quantificazione degli interventi

MODELLO EPIDEMIOLOGICO GUIDATO DA ML PER PREVEDERE LA PROGRESSIONE DI COVID-19 MEDIANTE LA QUANTIFICAZIONE DEGLI INTERVENTI L'Organizzazione Mondiale della Sanità ha dichiarato COVID-19 come una pandemia l'11 marzo ° , 2020. L'esplosione dei casi segnalati a livello mondiale da allora è fortemente cresciuta, impattando la vita giorno per giorno di entrambe le organizzazioni e individui in tutto il mondo. È ora indispensabile capire quanto potrebbe durare la pandemia e trovare modi efficaci per appiattire la progressione dei casi COVID-19. La letteratura di ricerca copre vari modelli statistici (come la distribuzione gamma , distribuzioni binomiali negative ) e modelli epidemiologici (come SIR, SEIR) che vengono utilizzati per fare previsioni sul numero di persone infette da malattie contagiose come Ebola, SARS, MERS. Tuttavia, la ricerca sulla velocità di trasmissione, il periodo di incubazione e altri parametri che vanno alla modellizzazione matematica della diffusione di COVID-19 è ancora in una fase nascente con la maggior parte di essa ancora da rivedere. Pertanto, i modelli epidemiologici autonomi potrebbero non essere sufficienti per prevedere la diffusione di Covid-19. Inoltre, questi parametri possono variare in base alla regione e alle misure di intervento intraprese da vari governi come l'allontanamento sociale, la chiusura delle scuole, i blocchi completi e così via. In questo articolo, presentiamo una soluzione predittiva di ensemble che combina un modello epidemiologico e varie tecniche di Machine Learning (ML) per prevedere l'impatto del COVID-19. La soluzione incorpora anche le misure di intervento adottate da vari governi per frenare l'impatto. introduzione I metodi usati frequentemente per prevedere la crescita di qualsiasi malattia infettiva includono l'uso di modelli epidemiologici . Mostriamo due di questi modelli epidemiologici comunemente usati nella figura seguente: Modello SIR - Come mostrato in Fig. 1, 'S' indica la...
Continua a Leggere

COME SI STANNO EVOLVENDO LE PIPELINE ML PER FAR POSTO AGLI MLOPS

C'è una richiesta per l'implementazione e l'automazione dell'integrazione continua, della consegna continua (CD) e della formazione continua per i sistemi ML. Conosciuto anche come MLOps, è una tendenza ingegneristica ML che mira a consolidare e automatizzare le tubazioni del sistema ML. I leader dell'innovazione tecnologica desiderano applicare i principi DevOps per i progetti AI e ML. L'implementazione di MLOps suggerisce l'automazione e il monitoraggio in tutte le fasi della costruzione del sistema ML. Gli analisti affermano che la vera sfida non è la costruzione di un modello ML, la sfida è creare un sistema ML integrato e lanciarlo continuamente in produzione. Ma perché ci saranno nuove pipeline ML in primo luogo? “Una delle cose importanti che dobbiamo capire è che esiste una differenziazione tra le attuali pipeline di cui siamo a conoscenza e come sono leggermente più diverse da quelle che saranno le pipeline nel futuro della scienza dei dati. Le attuali condotte di machine learning non saranno sostenibili e dovrai metterti alla prova in futuro per diventare più capace di gestire il tipo di problemi che avremo tra qualche anno ", ha detto Lavi Nigam , presso AIM conferenza virtuale plugin. Secondo lui, c'è una differenza tra fare scienza dei dati su scala locale e su scala cloud. La maggior parte della scienza dei dati che accade oggi si trova nei tuoi sistemi o laptop o all'interno di un server locale. Mentre andiamo avanti, l'intera idea di un machine learning scalabile o AI si sposterà localmente sul cloud, secondo gli analisti. Ciò significa che anche i componenti della pipeline cambieranno quando si tratta di piattaforme cloud diverse . “In questo momento, con il tipo di condotte che abbiamo, ci sono molti componenti sciolti, che non parlano tra loro e siedono in silos. Ma MLOps è diverso dall'attuale scienza dei dati che facciamo oggi e può facilitare quelle comunicazioni tra i diversi componenti della pipeline ML ”, ha affermato Lavi...
Continua a Leggere

AI l’intelligenza artificiale divora i dati

Consulente aziendale digitale indipendente Coloro che hanno lavorato a progetti di Machine Learning (ML) sanno che ML richiede una grande quantità di dati per addestrare gli algoritmi risultanti. Alcuni direbbero che non puoi mai avere troppi dati. Di solito esiste una correlazione tra la quantità di dati e la sofisticazione del modello ML risultante. Questa fame di dati diventerà sempre più intensa man mano che l'IA avanza verso nuovi pool di benefici sfruttando allo stesso tempo capacità di AI più sofisticate. Dal momento che ci sono altre tendenze che contribuiscono alla sofisticazione dell'intelligenza artificiale, la domanda che incombe alle organizzazioni è: "hanno i dati giusti per alimentare gli sforzi di intelligenza artificiale di successo?" Se non ne hanno abbastanza, dovrebbero inventare di più in previsione della festa dell'IA? Non è probabile che tutti quei big data che le organizzazioni hanno accumulato siano i dati corretti, ma capire dove sta andando l'IA darà a un'organizzazione un "vantaggio" sull'abbattimento e la raccolta di più dati corretti mentre l'IA progredisce nei prossimi decenni. La progressione dell'IA cambia il gioco dei dati Mentre ML richiede quantità significative di dati per auto-modificarne il comportamento, l'appetito dell'IA aumenta rapidamente man mano che aumenta la raffinatezza delle capacità dell'IA. C'è un grande passo dall'apprendimento automatico al Deep Learning (DL) in quanto DL richiede molti più dati di ML. Il motivo è che il DL è in genere in grado di identificare le differenze concettuali solo con gli strati delle reti neurali. DL determina i limiti dei concetti quando esposto a milioni di punti dati. DL consente alle macchine di rappresentare concetti tramite reti neurali come fa il cervello umano, consentendo così una soluzione dei problemi più complessa. L'intelligenza artificiale può anche lavorare su problemi più fuzzi in cui le risposte sono più incerte o ambigue. Si tratta in genere di problemi ...
Continua a Leggere

CHE COS’È L’APPRENDIMENTO CONTRASTIVO?

Il recente successo dei modelli auto-supervisionati può essere attribuito al rinnovato interesse dei ricercatori nell'esplorazione dell'apprendimento contrastante, un paradigma dell'apprendimento auto-supervisionato. Ad esempio, gli umani possono identificare oggetti allo stato brado anche se non ricordiamo esattamente come si presenta l'oggetto. Lo facciamo ricordando le funzionalità di alto livello e ignorando i dettagli a livello microscopico. Quindi, ora la domanda è: possiamo costruire algoritmi di apprendimento della rappresentazione che non si concentrano su dettagli a livello di pixel e codifichino solo funzioni di alto livello sufficienti a distinguere oggetti diversi? Con l'apprendimento contrastante, i ricercatori stanno cercando di affrontare questo problema. Di recente, anche il SimCLR di Google ha dimostrato le implicazioni dell'apprendimento contrastivo, che vedremo brevemente alla fine di questo articolo. Principio dell'apprendimento contrastivo L'apprendimento contrastivo è un approccio per formulare il compito di trovare cose simili e dissimili per un modello ML. Utilizzando questo approccio, si può formare un modello di apprendimento automatico per classificare tra immagini simili e diverse. Il funzionamento interno dell'apprendimento contrastivo può essere formulato come una funzione di punteggio, che è una metrica che misura la somiglianza tra due caratteristiche. Qui x + è un punto dati simile a x, indicato come campione positivo x− è un punto dati diverso da x, indicato come campione negativo Oltre a ciò, è possibile creare un classificatore softmax che classifica correttamente i campioni positivi e negativi. Un'applicazione simile di questa tecnica può essere trovata nel framework SimCLR recentemente introdotto . Applicazione dell'apprendimento contrastivo tramite Google AI Google ha introdotto un framework chiamato "SimCLR" che utilizza l'apprendimento contrastante. Questo framework appr...
Continua a Leggere

È FACILE IMPLEMENTARE METODI DI APPRENDIMENTO AUTOMATICO MACHINE LEARNING SPIEGABILI?

Si è parlato molto di come rendere l'apprendimento automatico più spiegabile in modo che gli stakeholder o i clienti possano liberarsi dello scetticismo riguardo alla tradizionale metodologia della scatola nera. Tuttavia, non ci sono state molte discussioni su come distribuire questi sistemi nelle condotte. Quindi, per scoprire come viene implementato, un gruppo di ricercatori ha condotto un sondaggio. Nella sezione successiva, esamineremo alcuni risultati e pratiche per la distribuzione, come raccomandato dai ricercatori della Carnegie Mellon University, che hanno pubblicato un lavoro in collaborazione con i migliori istituti. Nel loro sondaggio condotto con vari esperti di dominio, gli autori hanno cercato di rispondere a domande come: Quali sono i punti deboli nella distribuzione dei modelli ML e la spiegabilità aiuta? Che tipo di spiegazioni vengono utilizzate (ad es. Linguaggio basato sulle caratteristiche, basato sul campione, controfattuale o naturale)? In che modo un'organizzazione decide quando e dove utilizzare le spiegazioni del modello? Cosa hanno da dire i praticanti Durante il loro sondaggio, i ricercatori hanno riscontrato alcune preoccupazioni come il debug dei modelli, il monitoraggio dei modelli e la trasparenza tra molti altri durante le interviste che hanno condotto con le organizzazioni come parte del loro lavoro. Lo studio ha rilevato che la maggior parte dei data scientist ha difficoltà a eseguire il debug delle scarse prestazioni del modello. Identificare prestazioni scadenti, progettare nuove funzionalità, eliminare funzionalità ridondanti e raccogliere più dati per migliorare le prestazioni del modello è uno dei compiti cruciali. "LA FUNZIONE A INFLUIRÀ SULLA FUNZIONE B, [POICHÉ] LA FUNZIONE A POTREBBE INFLUIRE NEGATIVAMENTE SULLA FUNZIONE B - COME POSSO ATTRIBUIRE [IMPORTANZA IN PRESENZA DI] CORRELAZIONI? “ In generale, i data scientist che sono stati intervistati sono dell'opinione che le metodologie spiegabili possano...
Continua a Leggere

I problemi della Intelligenza artificiale nel Machine learning e nell’

Verso un'intelligenza artificiale più trasparente Una pietra miliare per far funzionare l'IA è l'apprendimento automatico: la capacità delle macchine di imparare dall'esperienza e dei dati e migliorare nel tempo man mano che apprendono. In effetti, è stata l'esplosione nella ricerca e nell'applicazione dell'apprendimento automatico che ha reso l'IA il letto caldo di recente interesse, investimento e applicazione che è oggi. Fondamentalmente, l'apprendimento automatico consiste nel dare alle macchine un sacco di dati da cui imparare, e usare sofisticati algoritmi che possono generalizzare da quell'apprendimento per dati che la macchina non ha mai visto prima. In questo modo, l'algoritmo di apprendimento automatico è la ricetta che insegna alla macchina come apprendere e il modello di apprendimento automatico è il risultato di tale apprendimento che può quindi generalizzare a nuovi dati. Indipendentemente dall'algoritmo utilizzato per creare il modello di apprendimento automatico, esiste una verità fondamentale: il modello di apprendimento automatico è valido solo come i suoi dati. Dati errati danno come risultato modelli cattivi In molti casi, questi cattivi modelli sono facili da individuare poiché funzionano male. Ad esempio, se hai creato un modello di apprendimento automatico per identificare i gatti nelle immagini e il modello identifica le farfalle come gatti o non riesce a individuare ovvi gatti nelle immagini, sappiamo che c'è qualcosa di sbagliato nel modello. Ci sono molte ragioni per cui un modello potrebbe funzionare male. I dati di input potrebbero essere crivellati di errori o scarsamente ripuliti. Le varie impostazioni e configurazioni per il modello, gli iperparametri, potrebbero essere impostate in modo errato ottenendo risultati scadenti. O forse i data scientist e gli ingegneri ML che hanno addestrato il modello hanno selezionato un sottoinsieme di dati disponibili che presentavano una sorta di pregiudizio intrinseco in esso, risultan...
Continua a Leggere

Come si può addestrare una rete neurale a giocare a Snake

Allo stato attuale, i videogiochi rivestono un ruolo cruciale quando si tratta di sviluppo e valutazione di modelli AI e ML. Questa metodologia è dietro l'angolo da alcuni decenni. Il computer digitale Nimrod su misura di Ferranti introdotto nel 1951 è il primo esempio noto di intelligenza artificiale nei giochi che ha utilizzato il gioco nim ed è stato usato per dimostrare le sue capacità matematiche. Attualmente, gli ambienti di gioco sono stati attivamente utilizzati per l'analisi comparativa degli agenti di intelligenza artificiale a causa della loro efficienza nei risultati. In uno dei nostri articoli, abbiamo discusso di come i ricercatori giapponesi hanno usato il gioco Mega Man 2 per valutare gli agenti di intelligenza artificiale. Oltre a questo, ci sono molti casi popolari in cui i ricercatori hanno utilizzato giochi per valutare l'intelligenza artificiale come AlphaGo di DeepMind per battere i giocatori professionisti di Go, Libratus per battere i giocatori professionisti del Texas Hold'em Poker, tra gli altri. In questo articolo, diamo un'occhiata a un altro semplice videogioco chiamato Snake e come gli algoritmi di apprendimento automatico possono essere implicati per giocare a questo semplice gioco. Il gioco Snake è uno dei videogiochi classici a cui tutti abbiamo giocato almeno una volta nella nostra infanzia. In questo gioco, il giocatore controlla il serpente per massimizzare il punteggio mangiando mele che vengono generate in punti casuali. Il serpente continuerà a crescere di una griglia ogni volta che il serpente mangia una mela. L'unica regola è che il serpente deve evitare la collisione per sopravvivere. I ricercatori di tutto il mondo hanno implementato vari algoritmi di apprendimento automatico in questo gioco di culto. Di seguito, abbiamo menzionato alcune implementazioni di algoritmi di rete neurale nel classico gioco Snake. Gioco Snake con reti neurali e algoritmo genetico In un articolo, i ricercatori dell'Università...
Continua a Leggere

Che cos’è l’apprendimento federato?

Il metodo tradizionale di formazione dei modelli di intelligenza artificiale prevede la creazione di server in cui i modelli sono formati sui dati, spesso attraverso l'uso di una piattaforma informatica basata su cloud. Tuttavia, negli ultimi anni è emersa una forma alternativa di creazione di modelli, chiamata apprendimento federato. L'apprendimento federato porta modelli di apprendimento automatico all'origine dati, piuttosto che portare i dati al modello. L'apprendimento federato collega più dispositivi computazionali in un sistema decentralizzato che consente ai singoli dispositivi che raccolgono dati di assistere nella formazione del modello. In un sistema di apprendimento federato, i vari dispositivi che fanno parte della rete di apprendimento hanno ciascuno una copia del modello sul dispositivo. I diversi dispositivi / client addestrano la propria copia del modello utilizzando i dati locali del client, quindi i parametri / pesi dei singoli modelli vengono inviati a un dispositivo master o server che aggrega i parametri e aggiorna il modello globale. Questo processo di allenamento può quindi essere ripetuto fino a raggiungere il livello di precisione desiderato. In breve, l'idea alla base dell'apprendimento federato è che nessuno dei dati di training viene mai trasmesso tra dispositivi o tra parti, solo gli aggiornamenti relativi al modello lo sono. L'apprendimento federato può essere suddiviso in tre diversi passaggi o fasi. L'apprendimento federato in genere inizia con un modello generico che funge da base e viene addestrato su un server centrale. Nel primo passaggio, questo modello generico viene inviato ai client dell'applicazione. Queste copie locali vengono quindi addestrate sui dati generati dai sistemi client, imparando e migliorando le loro prestazioni. Nel secondo passaggio, tutti i client inviano i parametri del modello appreso al server centrale. Questo accade periodicamente, a orari prestabiliti. Nel terzo passaggio, il server ag...
Continua a Leggere

Un nuovo metodo per addestrare le reti neurali profonde (DNN) con una frazione dell’energia normalmente richiesta

Gli ingegneri sviluppano un metodo "Early Bird" efficiente dal punto di vista energetico per addestrare reti neurali profonde Gli ingegneri della Rice University hanno sviluppato un nuovo metodo per addestrare le reti neurali profonde (DNN) con una frazione dell'energia normalmente richiesta. I DNN sono la forma di intelligenza artificiale (AI) che svolge un ruolo chiave nello sviluppo di tecnologie come auto a guida autonoma, assistenti intelligenti, riconoscimento facciale e altre applicazioni. Early Bird è stato dettagliato in un articolo il 29 aprile da ricercatori della Rice e Texas A&M University. Si è svolto alla Conferenza internazionale sulle rappresentanze dell'apprendimento o ICLR 2020. Gli autori principali dello studio erano Haoran You e Chaojian Li del laboratorio EIC (Efficient and Intelligent Computing) di Rice. In uno studio, hanno dimostrato come il metodo potrebbe addestrare un DNN allo stesso livello e precisione dei metodi di oggi, ma utilizzando 10,7 volte meno energia. La ricerca è stata condotta dal direttore di EIC Lab Yingyan Lin, Richard Baraniuk di Rice e Zhangyang Wang del Texas A&M. Altri co-autori includono Pengfei Xu, Yonggan Fu, Yue Wang e Xiaohan Chen. "Una delle principali forze trainanti nelle recenti scoperte dell'intelligenza artificiale è l'introduzione di DNN più grandi e più costosi", ha detto Lin. “Ma l'addestramento di questi DNN richiede molta energia. Affinché vengano svelate più innovazioni, è indispensabile trovare metodi di formazione "più ecologici" che affrontino sia le preoccupazioni ambientali che riducano le barriere finanziarie della ricerca in materia di intelligenza artificiale ". Costoso per addestrare DNN Può essere molto costoso formare i migliori DNN al mondo e il prezzo continua ad aumentare. Nel 2019, uno studio condotto dall'Allen Institute for AI di Seattle ha scoperto che per formare una rete neurale profonda di volo superiore, sono necessari 300.000 volte più calcoli rispett...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi