Home / Archive by category "ML Machine Learning"

ML Machine Learning

Come Google utilizza AI e ML intelligenza artificiale e machine learning per migliorare l’esperienza di ricerca

Di recente, gli sviluppatori di Google hanno dettagliato i metodi e i modi in cui hanno utilizzato l'intelligenza artificiale e l'apprendimento automatico per migliorare la propria esperienza di ricerca. Gli annunci sono stati fatti durante l' evento Search On 2020 , dove il gigante della tecnologia ha svelato diversi miglioramenti nell'IA che aiuteranno a ottenere risultati di ricerca nei prossimi anni. Nel 2018, il gigante della tecnologia ha introdotto la tecnica di pre-formazione basata sulla rete neurale per l'elaborazione del linguaggio naturale (PNL) chiamata Rappresentazioni di encoder bidirezionali da Transformers o semplicemente BERT . L'anno scorso, l'azienda ha introdotto in che modo i sistemi di comprensione del linguaggio BERT stanno aiutando a fornire risultati più pertinenti nella Ricerca Google . Da allora, sono stati apportati miglioramenti in molte aree, tra cui le capacità di comprensione del linguaggio del motore, query di ricerca e altro ancora. BERT è stato ora utilizzato in quasi tutte le query in inglese che aiutano a ottenere risultati di qualità superiore. Negli ultimi due decenni, il gigante della tecnologia ha ottenuto enormi progressi nel suo motore di ricerca. Prabhakar Raghavan, responsabile della ricerca e dell'assistente di Google, ha affermato in un post sul blog che quattro elementi chiave costituiscono la base di tutto il lavoro per migliorare la ricerca e rispondere a trilioni di domande ogni anno. Sono menzionati di seguito: Comprendere tutte le informazioni del mondo Informazioni di altissima qualità Privacy e sicurezza di livello mondiale Accesso aperto a tutti Di seguito sono menzionati alcuni dei miglioramenti chiave con AI e ML annunciati durante l'evento: Canticchia per cercare La notizia di questa nuova funzionalità sta facendo il giro di tutte le piattaforme dei social media. La funzione "ronza per cercare" consente agli utenti di canticchiare, fischiare o cantare una melodia a Google per risolvere il...
Continua a Leggere

Google Analytics 4 AI e ML

Rilascio di Google Analytics 4: principali miglioramenti basati su AI / ML Google ha annunciato una versione revisionata di Google Analytics. In uno dei maggiori rinnovamenti della piattaforma, in un decennio, il nuovo Google Analytics è costruito sulle fondamenta della proprietà App + Web, la cui beta è stata introdotta nel 2019. Il nuovo Google Analytics ha il machine learning al centro e consente l'integrazione tra analisi e Google Ads. L'azienda afferma che ciò aiuterebbe i clienti a gestire meglio i propri dati e potrebbe sopportare interruzioni del settore. Tra i cambiamenti più significativi, la nuova analisi avviserà l'utente delle tendenze significative nei propri dati. Inoltre, si possono anche anticipare le azioni che i clienti potrebbero intraprendere in futuro. Altre caratteristiche includono l'aggiunta di nuove metriche predittive. L'azienda afferma che tali informazioni possono aiutare gli utenti e gli imprenditori a raggiungere clienti di alto valore e a migliorare i risultati adottando misure come l'analisi dei modelli di spesa dei clienti. Caratteristiche di Google Analytics 4 Dal 2005, Google Analytics è il leader del settore e lo standard tra gli strumenti di analisi dei dati web. La sua versione standard gratuita è preferita tra privati ​​e piccole imprese. Per le aziende più grandi, Google fornisce un prodotto a pagamento: Google Analytics 360. Oltre alle funzioni standard, Google Analytics 360 fornisce funzionalità come rapporti non campionati, esportazione BigQuery e attribuzione basata sui dati. Il nuovo Google Analytics è attualmente in beta con una versione di Analytics 360 che fornirà SLA e integrazioni con strumenti come BigQuery . Questo nuovo aggiornamento ha lo scopo di migliorare le capacità decisionali dei clienti e ottenere un migliore ritorno sull'investimento (ROI). Una delle caratteristiche più interessanti è la disponibilità di intuizioni e previsioni basate sull'intelligenza artificiale. Le informazioni basate ...
Continua a Leggere

Ascoltare il mondo attraverso l’apprendimento automatico

Ascoltare il mondo attraverso l'apprendimento automatico L'apprendimento automatico (ML) è diventato silenziosamente parte della nostra vita quotidiana, alimentando le nostre auto, le operazioni nei nostri ospedali e il cibo che mangiamo. Alcune delle aziende più entusiasmanti che applicano il ML non si definiscono nemmeno società "ML". L'auto è l'esempio più ovvio, dato che 10 miliardi di dollari di finanziamenti sono stati riversati nel settore solo nel 2019. Mentre attendiamo con impazienza la prossima generazione di verticali in cui il ML avrà un impatto rivoluzionario, l'assistenza sanitaria si distingue come una delle più promettenti. Nell'ambito dell'assistenza sanitaria, esistono ora straordinari modi in cui il machine learning può migliorare la qualità del nostro udito. Un problema secolare Il suono più basso che puoi sentire inizia a deteriorarsi con l'avanzare dell'età, ma il suono udibile più forte rimane costante per tutta la vita. Gli apparecchi acustici tradizionalmente funzionano amplificando i suoni con regolazioni molto grossolane, dal tintinnio dei piatti in un ristorante al suono della voce di tuo figlio. Possono essere incredibilmente dolorosi da indossare, spesso soffocando i suoni che vuoi sentire con rumori che non hai e questo è particolarmente importante nei luoghi pubblici rumorosi. Si stima che 48 milioni di americani soffrano di un certo grado di ipoacusia. Nonostante la prevalenza del problema, gli apparecchi acustici predominanti oggi sul mercato sono stati costruiti 50-100 anni fa. Sonova è un'azienda svizzera da 17 miliardi di dollari, fondata nel 1947, lo stesso anno in cui fu inventato il transistor. Demant è una società con sede in Danimarca da 8 miliardi di dollari che è stata fondata nel 1904, antecedente persino al modello T.Una manciata di nuovi operatori è emersa di recente, offrendo prodotti meno costosi e diretti al consumatore, ma raggiungendo una qualità alla pari con gli operatori storici del settore rimas...
Continua a Leggere

I modelli linguistici possono far fallire i modelli di visione artificiale

Nelle applicazioni di visione artificiale, l'attenzione viene applicata insieme alle CNN o utilizzata per sostituire alcuni componenti di queste reti convoluzionali mantenendo la loro struttura complessiva in posizione. Ma le architetture convoluzionali rimangono ancora dominanti. La scorsa settimana, un documento in fase di revisione in doppio cieco per ICLR 2021 ha entusiasmato la comunità ML. Il documento intitolato "Un'immagine vale 16X16 parole" è stato discusso da artisti del calibro del capo di Tesla AI, Andrej Karpathy , tra molti altri. Sin dal seminale articolo "L'attenzione è tutto ciò di cui hai bisogno", i trasformatori hanno riacceso l'interesse per i modelli linguistici. Sebbene l'architettura del trasformatore sia diventata la soluzione ideale per molte attività di elaborazione del linguaggio naturale, le sue applicazioni per la visione artificiale rimangono limitate. I trasformatori stanno lentamente diventando popolari con compiti diversi come il riconoscimento vocale, la matematica simbolica e persino l'apprendimento per rinforzo. Nell'ultimo lavoro in esame all'ICLR 2021, gli autori anonimi affermano che i loro risultati mostrano che il trasformatore di visione può andare in punta di piedi con i modelli all'avanguardia sui benchmark di riconoscimento delle immagini, raggiungendo precisioni fino all'88,36% su ImageNet e 94,55 % su CIFAR-100. Panoramica dei trasformatori visivi Il trasformatore di visione, come illustrato sopra, riceve input come sequenza unidimensionale di token embedding. Per gestire le immagini 2D, l'immagine viene rimodellata in una sequenza di patch 2D appiattite. Gli autori affermano che i trasformatori in questo lavoro utilizzano larghezze costanti attraverso tutti i suoi strati, per fornire una proiezione lineare addestrabile che mappa ogni patch vettorializzata alla dimensione del modello che a sua volta porta a incorporamenti di patch. Questi incorporamenti di patch vengono combinati con inc...
Continua a Leggere

Google e l’infrastruttura di apprendimento per rinforzo su larga scala

Google prende in considerazione l'infrastruttura di apprendimento per rinforzo su larga scala "La nuova infrastruttura riduce il tempo di formazione da otto ore a solo un'ora rispetto a una linea di base solida." Le attuali tecniche di apprendimento per rinforzo allo stato dell'arte richiedono molte iterazioni su molti campioni dall'ambiente per apprendere un'attività target. Ad esempio, il gioco Dota 2 impara da batch di 2 milioni di frame ogni 2 secondi. L' infrastruttura che gestisce RL su questa scala dovrebbe essere non solo buona per raccogliere un gran numero di campioni, ma anche essere in grado di iterare rapidamente su queste vaste quantità di campioni durante l'addestramento. Per essere efficienti è necessario superare alcune sfide comuni: Dovrebbe soddisfare un gran numero di richieste di lettura da parte di attori a uno studente per il recupero del modello con l'aumentare del numero di attori. Le prestazioni del processore sono spesso limitate dall'efficienza della pipeline di input nel fornire i dati di addestramento ai core di calcolo. Con l'aumentare del numero di core di elaborazione, le prestazioni della pipeline di input diventano ancora più critiche per il runtime di formazione complessivo. Quindi, Google ha ora introdotto Menger, un'enorme infrastruttura di apprendimento per rinforzo distribuito su larga scala con inferenza localizzata. Questo può anche scalare fino a diverse migliaia di attori su più cluster di elaborazione, riducendo il tempo di formazione complessivo nell'attività di posizionamento dei chip. Il posizionamento dei trucioli o la progettazione del pavimento dei trucioli richiede tempo e richiede operazioni manuali. All'inizio di quest'anno, Google ha dimostrato come il problema del posizionamento del chip potrebbe essere risolto attraverso la lente dell'apprendimento per rinforzo profondo e ridurre i tempi di progettazione di un chip. Con Menger, Google ha testato la scalabilità e l'efficienza attraverso le attivit...
Continua a Leggere

Tesla sta entrando nel mercato del machine learning come servizio?

Tesla potrebbe introdurre la formazione sull'apprendimento automatico come servizio web con il suo prossimo supercomputer "Dojo", ha dichiarato il CEO Elon Musk su Twitter. Project Dojo è stato inizialmente rivelato da Musk l'anno scorso ed è un supercomputer su cui Tesla ha lavorato. Il supercomputer è stato progettato per acquisire enormi quantità di dati video ed eseguire enormi livelli di addestramento senza supervisione sui dati visivi. L'obiettivo di Dojo sarà quello di essere in grado di acquisire grandi quantità di dati e di allenarsi a livello video e di eseguire un addestramento massiccio senza supervisione di grandi quantità di dati video. In questo caso, il supercomputer Dojo servirà da sistema centrale per Tesla per addestrare la sua IA a guida autonoma. Proprio di recente, Musk ha affermato che il supercomputer Dojo di Tesla avrebbe la capacità di exaFLOP, ovvero un quintilione (1018) di operazioni in virgola mobile al secondo (o 1.000 petaFLOPS). Questa capacità rende possibile eseguire un supercomputer all'avanguardia. Inoltre, c'è anche una corsa in corso tra le aziende per rompere la barriera exaFLOP nel supercalcolo. Con Dojo, mette Tesla, una casa automobilistica, in concorrenza con i giganti della produzione di chip come Intel o AMD per realizzare un sistema di supercalcolo in grado di rompere la barriera exaFLOP. Un'altra cosa fondamentale che Musk ha twittato è che è il piano di Tesla di rendere Dojo disponibile al pubblico come servizio web per addestrare modelli ML. Il CEO di Tesla ha dichiarato: "Dojo utilizza i nostri chip e un'architettura di computer ottimizzata per l'addestramento della rete neurale, non un cluster GPU. Potrei sbagliarmi, ma penso che sarà il migliore del mondo ". Abbiamo visto Tesla entrare nello spazio dell'hardware informatico. Tesla ha progettato la propria capacità di architettura del chip con un team di esperti di chip per installarlo nel sistema a guida autonoma. Tesla ha creato l'architet...
Continua a Leggere

Il modello ML della Nasa per prevedere gli uragani

Tecnologia dietro il modello ML della Nasa per prevedere l'intensità degli uragani Con una parte del mondo alle prese con gli effetti negativi degli uragani e degli intensi cicloni tropicali , è diventato fondamentale per i ricercatori e gli scienziati sviluppare un modo per prevedere e analizzare questi modelli di uragani. Pertanto, nel tentativo di prevedere la futura intensità degli uragani, gli scienziati del Jet Propulsion Laboratory della NASA nel sud della California hanno proposto un modello di apprendimento automatico che afferma di prevedere con precisione gli eventi di rapida intensificazione del futuro. Il fattore critico per comprendere l'intensità di un uragano è la velocità del vento. Tradizionalmente è stata una sfida prevedere la gravità delle tempeste o degli uragani durante la fermentazione. Tuttavia, il nuovo modello ML della NASA può migliorare l'accuratezza della previsione e fornire risultati migliori. Sviluppato navigando attraverso anni di dati satellitari , questo modello afferma di prevedere la forza dell'uragano, con previsioni più accurate. Ciò consente alle persone di preparare la strada prima che la tempesta colpisca effettivamente. Quando gli è stato chiesto, Hui Su, uno scienziato atmosferico del JPL, ha affermato che tale previsione è fondamentale per essere corretta a causa del potenziale danno che uragani e tempeste possono arrecare a persone e proprietà. La panoramica della tecnologia dietro I due fattori critici per prevedere con precisione gli uragani sono prevedere la sua traccia e la sua intensità. Sebbene la previsione del tracciato sia stata raggiunta con successo dagli scienziati, la previsione della sua gravità e delle sue caratteristiche interne è sempre stata una sfida. Non solo perché dipende dall'ambiente circostante , ma anche fatti come pioggia e vento possono essere difficili per una previsione accurata. Pertanto, per facilitare ciò, gli scienziati della NASA hanno lavorato su un'enorme quantità di...
Continua a Leggere

AWS : i migliori servizi di ML Machine Learning Apprendimento Automatico

AWS supera il quadrante Gartner per il decimo anno consecutivo. Uno sguardo ai loro migliori servizi di ML "AWS può progettare qualsiasi cosa, dal silicio nei suoi server ai sistemi operativi incorporati nei dispositivi edge e lo stack completo di software in mezzo." Èpassato più di un decennio dal suo lancio e oggi AWS è cresciuta fino a diventare una delle società di infrastrutture cloud di maggior successo al mondo, raccogliendo oltre il 30% del mercato. AWS rimane ancora una delle unità più forti di Amazon, rappresentando il 77% dell'utile operativo totale di Amazon per il trimestre. L'anno scorso, AWS ha generato entrate per 35 miliardi di dollari per l'azienda. Negli ultimi annunci di Gartner , AWS è stata nuovamente nominata leader, per la decima volta consecutiva. AWS è stata coerente con la soddisfazione delle richieste in rapida transizione degli sviluppatori. Soprattutto con l'esplosione di casi d'uso di machine learning, i clienti hanno voluto montare i loro carichi di lavoro ML su piattaforme cloud. Diamo un'occhiata a come è andata AWS in termini di fornitura di servizi ML. SageMaker Lo sviluppo ML tradizionale è complesso, costoso e iterativo. Trovare gli strumenti giusti e integrarli può richiedere molto tempo ed essere soggetto a errori. SageMaker risolve questa sfida fornendo tutti i componenti utilizzati per l'apprendimento automatico in un unico set di strumenti in modo che i modelli arrivino alla produzione più velocemente, con meno sforzi. Ad esempio, utilizzando SageMaker Autopilot, è possibile ispezionare automaticamente i dati grezzi, applicare processori di funzionalità e scegliere il miglior set di algoritmi, monitorare le loro prestazioni, il tutto con pochi clic. CodeGuru Più efficiente è il codice e l'applicazione, meno costoso è da eseguire. Gli sviluppatori possono integrare Amazon CodeGuru nei flussi di lavoro esistenti e le revisioni del codice integrate rilevano e ottimizzano il codice per ridurre i costi. A...
Continua a Leggere

Perché ricreare un documento di ricerca ML di Machine Learning è così difficile e come farlo in modo efficace

Supponi di aver mai provato a replicare un documento di apprendimento automatico all'avanguardia o decente. In tal caso, potresti esserti imbattuto in problemi di pacchetti e librerie, problemi di versione, hardware e molte altre sfide, suggerendo che la riproducibilità in ML è un problema serio. Joelle Pineau , una ricercatrice di ML, ha portato l'attenzione di tutta la comunità sulla riproducibilità. In un'intervista pubblicata da Nature l'anno scorso, Pineau li ha affrontati in modo dettagliato. Anche un programma di riproducibilità è stato introdotto a neurIPS 2019 che ha richiesto ai ricercatori di considerare quanto segue: una politica di invio del codice, una sfida per la riproducibilità a livello di comunità e un elenco di controllo per la riproducibilità dell'apprendimento automatico Recentemente, Grigori Fursin, uno scienziato informatico, ha pubblicato delle liste di controllo da tenere a mente se i ricercatori si preoccupano della riproducibilità. In un recente discorso , Fursin ha condiviso la sua esperienza nella riproduzione di oltre 150 sistemi e documenti ML durante la valutazione degli artefatti presso ASPLOS, MLSys, CGO, PPoPP e Supercomputing. "Il nostro obiettivo a lungo termine è aiutare i ricercatori a condividere le loro nuove tecniche di ML come pacchetti pronti per la produzione insieme a documenti pubblicati e partecipare a benchmarking collaborativi e riproducibili, co-progettazione e confronto di stack ML / software / hardware efficienti", ha affermato. Informazioni su Artifact Per rendere più facile per i revisori, l'accesso agli artefatti dovrebbe essere chiaro: Indica se clonare il repository da GitHub , GitLab, BitBucket o qualsiasi servizio simile Download del pacchetto da un sito Web pubblico o privato Consenti l'accesso agli artefatti tramite una macchina privata con software preinstallato quando è richiesto l'accesso a hardware raro o viene utilizzato software proprietario Fursin consiglia inoltre di...
Continua a Leggere

Con il ML l’intelligenza artificiale scopre 50 nuovi pianeti.

50 nuovi pianeti confermati prima nell'apprendimento automatico: l'IA distingue tra pianeti reali e "falsi" Il nuovo algoritmo di apprendimento automatico progettato da astronomi e scienziati informatici dell'Università di Warwick conferma la presenza di nuovi pianeti extrasolari nei dati del telescopio I sondaggi del cielo trovano migliaia di pianeti candidati e gli astronomi devono separare i veri pianeti da quelli falsi L'algoritmo è stato addestrato per distinguere tra segni di pianeti reali e falsi positivi La nuova tecnica è più veloce delle tecniche precedenti, può essere automatizzata e migliorata con ulteriore formazione Cinquanta potenziali pianeti hanno avuto la loro esistenza confermata da un nuovo algoritmo di apprendimento automatico sviluppato dagli scienziati dell'Università di Warwick. Per la prima volta, gli astronomi hanno utilizzato un processo basato sull'apprendimento automatico, una forma di intelligenza artificiale, per analizzare un campione di potenziali pianeti e determinare quali sono reali e quali sono 'falsi', o falsi positivi, calcolando la probabilità di ciascuno candidato ad essere un vero pianeta. I loro risultati sono riportati in un nuovo studio pubblicato negli Avvisi mensili della Royal Astronomical Society , dove eseguono anche il primo confronto su larga scala di tali tecniche di convalida dei pianeti. Le loro conclusioni giustificano l'utilizzo di più tecniche di convalida, incluso il loro algoritmo di apprendimento automatico, quando si confermano statisticamente le future scoperte di esopianeti . Molte indagini sugli esopianeti cercano attraverso enormi quantità di dati dai telescopi i segni dei pianeti che passano tra il telescopio e la loro stella, noti come in transito. Ciò si traduce in un significativo calo di luce dalla stella che il telescopio rileva, ma potrebbe anche essere causato da un sistema stellare binario, interferenze da un oggetto sullo sfondo o anche lievi errori nella fotocamera. Questi fals...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi