Home / Archive by category "AI tecnologia"

AI tecnologia

Data mining rispetto alla profilazione dei dati: cosa li rende diversi

Mentre si lavora nel campo dell'apprendimento automatico e dell'analisi dei dati, la profilazione dei dati e il data mining sono utilizzati in modo abbastanza esteso con varie definizioni sparse. I due termini sono spesso confusi e in alcuni casi le persone lo usano persino in modo intercambiabile. Mentre entrambi possono sembrare la stessa cosa, non lo sono. In primo luogo, il data mining è in uso da un po 'di tempo, mentre la profilazione dei dati è un argomento relativamente raro e nuovo. Con questo articolo, proviamo ad analizzare le differenze tra questi due argomenti in termini di concetti, applicazioni e altro. Qui iniziamo. Comprensione dei due termini Estrazione dei dati Il data mining si riferisce al processo di identificazione dei modelli in un database predefinito. Effettua analisi o scoperte di conoscenza nei database per valutare il database esistente e set di dati di grandi dimensioni per trasformare dati grezzi in informazioni utili e trovare tendenze e modelli in esso. Per dirla semplicemente, raccoglie i modelli e le conoscenze dai dati disponibili, identificando i dati validi, nuovi e potenzialmente utili e le tendenze nei dati per risolvere i problemi attraverso l'analisi dei dati in dati altrimenti dispersi. Una volta identificate le correlazioni all'interno dei set di dati di grandi dimensioni, questa conoscenza viene inserita in aree come la business intelligence e l'analisi per comprendere i set di dati complessi e di grandi dimensioni in vari settori. Identifica i modelli nascosti, cerca nuove conoscenze preziose e non banali per generare informazioni utili. Implica un'analisi statistica e algoritmica completa di un tipico set di dati esteso e l'interrogazione di un database per vari parametri. Ad esempio, può trasportare analisi del sentiment per sapere come si sentono le persone riguardo a un determinato prodotto o servizio. Alcuni degli strumenti standard di data mining sono RapidMiner, Apache SAMOA. Profilazione ...
Continua a Leggere

QSimulate alimenta La Simulazione Quantistica Ad Alto Rendimento Per L’informatica Dei Materiali Presso JSR

QSimulate-MI consente di eseguire calcoli quantistici ad alta precisione per migliaia di molecole su base giornaliera La piattaforma di simulazione quantistica QSimulate che consente un elevato throughput senza precedenti, QSimulate-MI, è stata arruolata da JSR Corporation, uno dei principali attori nel mercato dei materiali semiconduttori, display, ottici e polimerici, per consentire la scoperta di nuovi materiali utilizzando Materials Informatics (MI) si avvicina. In questa partnership, QSimulate ha fornito a JSR l'accesso ai suoi esclusivi strumenti di QM automatizzati sul cloud, consentendo di eseguire calcoli quantistici ad alta precisione per migliaia di molecole su base giornaliera. Questo, a sua volta, fornisce un set di dati superiore per l'informatica dei materiali, nonché la capacità di soppiantare efficacemente l'insieme di addestramento come richiesto. Negli ultimi anni, l'idea che un'intelligenza artificialeIl motore (AI) per l'MI, addestrato utilizzando dati molecolari simulati dal QM, potrebbe consentire una rapida previsione delle proprietà della topologia molecolare ha guadagnato trazione. Se le previsioni AI / MI sono affidabili, è possibile valutare rapidamente una serie di proprietà rilevanti dei materiali, tra cui reattività, proprietà di assorbimento ed emissione, resistenza alla trazione e propensione al difetto e al degrado. Tuttavia, per creare un motore AI / MI affidabile, è necessaria una grande quantità di dati QM ad alta precisione per la formazione, che richiede un numero enorme di calcoli DFT ad alta precisione che sono stati tradizionalmente costosi e ad alta intensità di manodopera. La piattaforma QSimulate-MI rappresenta un approccio di nuova generazione ai calcoli QM per automatizzare completamente il flusso di lavoro e utilizzare in modo efficiente il calcolo elastico scalabile risorse nel cloud con migliaia di processori. Come osserva Toru Shiozaki, CEO e cofondatore di QSimulate, “L'utilità di QM per la progettazione...
Continua a Leggere

Cosa sono i nanobot? Comprensione della struttura, del funzionamento e degli usi di Nanobot

Con l'avanzare della tecnologia, le cose non sempre diventano più grandi e migliori, anche gli oggetti diventano più piccoli. In effetti, la nanotecnologia è uno dei campi tecnologici in più rapida crescita, del valore di oltre 1 trilione di dollari, e si prevede che cresca di circa il 17% nel prossimo mezzo decennio. I nanobot sono una parte importante del campo delle nanotecnologie, ma cosa sono esattamente e come funzionano? Diamo un'occhiata più da vicino ai nanobot per capire come funziona questa tecnologia trasformativa e a cosa serve. Cosa sono i nanobot? Il campo della nanotecnologia riguarda la ricerca e lo sviluppo della tecnologia su una scala compresa tra 1 e 100 nanometri. Pertanto, la nanorobotica si concentra sulla creazione di robot di queste dimensioni. In pratica, è difficile progettare qualcosa di piccolo quanto un nanometro in scala e il termine "nanorobotics" e "nanobot" viene spesso applicato a dispositivi di circa 0,1-10 micrometri di dimensioni, che è ancora piuttosto piccolo. È importante notare che il termine "nanorobot" viene talvolta applicato a dispositivi che interagiscono con oggetti su nanoscala, manipolando oggetti su nanoscala. Pertanto, anche se il dispositivo stesso è molto più grande, può essere considerato uno strumento nanorobotico. Questo articolo si concentrerà sugli stessi robot su scala nanometrica. Gran parte del campo della nanorobotica e dei nanobot è ancora nella fase teorica, con la ricerca focalizzata sulla risoluzione dei problemi di costruzione su così piccola scala. Tuttavia, alcuni prototipi di nanomacchine e nanomotori sono stati progettati e testati. La maggior parte dei dispositivi nanorobotici attualmente esistenti rientrano in una delle quattro categorie : interruttori, motori, navette e automobili. Gli interruttori nanorobotici funzionano chiedendo di passare da uno stato "off" a uno stato "on". I fattori ambientali vengono utilizzati per far cambiare la forma della macchina, un processo c...
Continua a Leggere

Stiamo vivendo in una simulazione di intelligenza artificiale? E quindi in realtà non esistiamo ? Non avrà mica ragione Elon MusK

La domanda esistenziale che dovremmo porci è: viviamo in un universo simulato? L'idea che viviamo in una realtà simulata può sembrare non convenzionale e irrazionale per il grande pubblico, ma è una convinzione condivisa da molte delle menti più brillanti del nostro tempo tra cui Neil deGrasse Tyson, Ray Kurzweil ed Elon Musk. Elon Musk notoriamente ha posto la domanda 'Cosa c'è al di fuori della simulazione? "in un podcast con Lex Fridman, ricercatore presso il MIT. Per capire come potremmo vivere in una simulazione, è necessario esplorare l'ipotesi della simulazione o la teoria della simulazione che propone che tutta la realtà, compresi la Terra e l'universo, sia in realtà una simulazione artificiale. Mentre l'idea risale al diciassettesimo secolo e fu inizialmente proposta dal filosofo René Descartes, l'idea iniziò a suscitare l'interesse principale quando il professor Nick Bostrom dell'Università di Oxford, nel 2003 scrisse un articolo fondamentale intitolato “Stai vivendo in un computer? Simulazione?" Da allora Nick Bostrom ha raddoppiato le sue affermazioni e utilizza l'analisi probabilistica per dimostrare il suo punto. Ci sono molte interviste in cui dettaglia dettagliatamente le sue opinioni, incluso questo discorso presso la sede di Google. Esploreremo il concetto di come può essere creata una simulazione, chi la creerebbe e perché qualcuno la creerebbe. Come sarebbe stata creata una simulazione Se analizzi la storia dei videogiochi, c'è una chiara curva di innovazione nella qualità dei giochi. Nel 1982 Atari Inc ha rilasciato Pong , i giocatori potevano competere giocando a un gioco in stile tennis con una semplice grafica bidimensionale. I videogiochi si sono evoluti rapidamente. Gli anni '80 presentavano grafica 2D, gli anni '90 presentavano grafica 3D e da allora siamo stati introdotti alla realtà virtuale (VR). Il tasso di progresso accelerato quando si tratta di VR non può essere sottovalutato. Inizialmente la VR sof...
Continua a Leggere

C-Mask di Donut Robotics

Coronavirus: un'azienda giapponese svela una maschera intelligente che si collega ai telefoni Una startup giapponese ha svelato una maschera facciale intelligente che si collega agli smartphone e consente agli utenti di effettuare chiamate in remoto, senza parlare direttamente nei loro cellulari. Capace di inviare messaggi di testo tramite parlato, il suo sviluppatore Donut Robotics lo sta commercializzando come un modo per rimanere in contatto durante l'era del coronavirus. Soprannominato "C-Mask", il dispositivo si adatta a maschere normali a base di tessuto. Si collega a un'app tramite Bluetooth, consentendole di trascrivere i messaggi vocali in messaggi di testo, che vengono quindi inviati tramite lo smartphone dell'utente. Può anche tradurre dal giapponese in altre otto lingue e amplificare la voce dell'utente, nel caso in cui non possano essere ascoltati attraverso la maschera. C-Mask Connected Smart Face Mask per Coronavirus La C-Mask si collega allo smartphone dell'utente tramite Bluetooth, consentendo alla sua app di essere utilizzata per … [+] DONUT ROBOTICA Più popolari in: AI "Abbiamo lavorato duramente per anni per sviluppare un robot e abbiamo utilizzato quella tecnologia per creare un prodotto che risponda al modo in cui il coronavirus ha rimodellato la società", ha dichiarato Taisuke Ono, CEO di Donut Robotics, parlando con Reuters . Il Giappone sarà il primo mercato a ricevere la C-Mask, con 5.000 unità spedite da settembre al prezzo di 3.980 yen giapponesi (circa $ 37,23). Donut Robotics punta anche a vendere la maschera intelligente negli Stati Uniti, in Europa e in Cina, dove i timori di una seconda ondata di coronavirus sono una caratteristica ricorrente dell'attuale panorama sociale ed economico. Il problema con un esercito di tracciamento dei contatti volontari Per Donut Robotics, le funzioni di invio e traduzione dei messaggi sono solo l'inizio dei suoi piani per la maschera a C. Al momento, la maschera intelligente può anc...
Continua a Leggere

Sicurezza delle auto a guida autonoma migliorata con il nuovo metodo di allenamento sviluppato dai ricercatori della Carnegie Mellon University

Uno dei compiti più importanti per un'auto a guida autonoma quando si tratta di sicurezza è il monitoraggio di pedoni, oggetti e altri veicoli o biciclette. Per fare ciò, le auto a guida autonoma si affidano a sistemi di localizzazione. Questi sistemi potrebbero diventare ancora più efficaci con un nuovo metodo sviluppato dai ricercatori della Carnegie Mellon University (CMU). Il nuovo metodo ha sbloccato dati di guida molto più autonomi rispetto a prima, come i dati su strada e traffico che sono cruciali per l'addestramento dei sistemi di localizzazione. Più dati ci sono, più successo può avere l'auto a guida autonoma. Il lavoro è stato presentato alla conferenza virtuale Computer Vision and Pattern Recognition (CVPR) dal 14 al 19 giugno. Himangi Mittal è uno stagista di ricerca che lavora a fianco di David Held, un professore assistente presso il Robotics Institute della CMU. "Il nostro metodo è molto più robusto rispetto ai metodi precedenti perché possiamo allenarci su set di dati molto più grandi", ha detto Mittal. Lidar e Scene Flow La maggior parte dei veicoli autonomi di oggi fa affidamento su lidar come principale sistema di navigazione. Lidar è un dispositivo laser che osserva ciò che circonda il veicolo e genera informazioni 3D da esso. Le informazioni 3D si presentano sotto forma di una nuvola di punti e il veicolo utilizza una tecnica chiamata flusso di scena per elaborare i dati. Il flusso di scena implica la velocità e la traiettoria di ciascun punto 3D da calcolare. Quindi, ogni volta che ci sono altri veicoli, pedoni o oggetti in movimento, vengono rappresentati nel sistema come un gruppo di punti che si muovono insieme. I metodi tradizionali per l'addestramento di questi sistemi di solito richiedono set di dati etichettati, ovvero dati del sensore che sono stati annotati per tenere traccia dei punti 3D nel tempo. Poiché questi set di dati devono essere etichettati manualmente e sono costosi, esiste una quantità minima. ...
Continua a Leggere

Il nuovo sistema di intelligenza artificiale di Intel è in grado di ottimizzare la formazione sull’apprendimento per rinforzo su un singolo sistema

Recentemente, i ricercatori di Intel Lab e della University of Southern California hanno introdotto un sistema di intelligenza artificiale noto come Sample Factory in grado di ottimizzare l'efficienza degli algoritmi di apprendimento del rinforzo su un'impostazione a macchina singola. Sample Factory è un sistema di training ad alta produttività ottimizzato per un'impostazione a macchina singola che combina un campionatore altamente efficiente, asincrono, basato su GPU con tecniche di correzione off-policy. I ricercatori di organizzazioni e università hanno ottenuto diversi risultati pionieristici sia nell'addestramento di agenti sofisticati per i videogiochi sia nel trasferimento sim-to-real per la robotica negli ultimi anni. I risultati sono stati raggiunti aumentando la scala degli esperimenti di apprendimento di rinforzo . Tuttavia, tali esperimenti si basano su grandi sistemi distribuiti e richiedono costose configurazioni hardware. Esperimenti su scala miliardaria con ambienti complessi sono diventati all'ordine del giorno per queste ricerche e gli sforzi più avanzati consumano trilioni di transizioni ambientali in una singola sessione di allenamento. Ciò, di conseguenza, limita l'accesso più ampio a questa eccitante area di ricerca. Qui entra in gioco la Sample Factory. Secondo i ricercatori, Sample Factory mitiga questo problema ottimizzando l'efficienza e l'utilizzo delle risorse degli algoritmi di apprendimento del rinforzo invece di fare affidamento su calcoli distribuiti. Dietro la fabbrica del campione Sample Factory è un'architettura per l' apprendimento del rinforzo ad alto rendimento su uno scenario a macchina singola. È costruito attorno a un algoritmo APPO (Asximchronous Proximal Policy Optimization ), che è un'architettura di apprendimento di rinforzo che consente di parallelizzare in modo aggressivo la raccolta di esperienze e raggiungere un throughput fino a 130000 FPS (frame di ambiente al secondo) su un singolo nodo di calco...
Continua a Leggere

Il piano AI di Apple funzionalità e aggiornamenti che utilizzano l’intelligenza artificiale

Il piano AI di Apple: mille piccole comodità Perché l'IA è troppo stupida per fare qualsiasi altra cosa Tra le nuove funzionalità AI che Apple ha annunciato al WWDC è il rilevamento del lavaggio delle mani per l'Apple Watch. Immagine: Apple L'intelligenza artificiale è diventata parte integrante del tono di ogni azienda tecnologica per i consumatori. Non riuscire a promuovere l'apprendimento automatico o le reti neurali quando si svela un nuovo prodotto, e si potrebbe anche essere falciando calcolatori a manovella. Questo può portare a una promessa eccessiva. Ma a giudicare dalle recenti prestazioni del WWDC, Apple ha adottato un approccio più intelligente e più silenzioso. PERCHÉ ACCECARLI CON LA SCIENZA QUANDO PUOI AFFASCINARLI CON COMODITÀ? Sparsi in tutti gli annunci di Apple su iOS, iPadOS e macOS c'erano una serie di funzionalità e aggiornamenti che hanno a cuore l'apprendimento automatico. Alcune non sono state annunciate sul palco e alcune funzionalità che quasi sicuramente utilizzano l'IA non sono state identificate come tali, ma ecco un breve riepilogo delle menzioni più importanti che abbiamo individuato: Riconoscimento facciale per HomeKit. Le fotocamere intelligenti abilitate per HomeKit useranno le foto che hai taggato sul telefono per identificare chi è alla tua porta e persino annunciarle per nome. Monitoraggio del sonno nativo per Apple Watch. Questo utilizza l'apprendimento automatico per classificare i tuoi movimenti e rilevare quando stai dormendo. Lo stesso meccanismo consente anche all'Apple Watch di tenere traccia di nuove attività come la danza e … Lavaggio delle mani. L'Apple Watch non rileva solo il movimento, ma anche il suono del lavaggio delle mani, avviando un conto alla rovescia per assicurarsi di lavare per tutto il tempo necessario. Suggerimenti della libreria app. Una cartella nel nuovo layout della Libreria app utilizzerà "l'intelligenza sul dispositivo" per mostrare le app di cui "probabilmente avrai bisogno dopo". È ...
Continua a Leggere

L’intelligenza artificiale utilizzata per analizzare le opinioni attraverso l’attività cerebrale

I ricercatori dell'Università di Helsinki hanno sviluppato una nuova tecnica che utilizza l'intelligenza artificiale (AI) e l'attività cerebrale di gruppi di persone al fine di analizzare le opinioni e trarre conclusioni. I ricercatori hanno definito la tecnica "Brainsourcing" e può aiutare a classificare le immagini o consigliare i contenuti. Cos'è il crowdsourcing Il crowdsourcing viene utilizzato ogni volta che esiste un'attività complessa che deve essere suddivisa in attività più piccole e più gestibili. Questi vengono quindi distribuiti a grandi gruppi di persone che risolvono i problemi individualmente. Un esempio di ciò sarebbe se alle persone fosse chiesto se un oggetto appare in un'immagine e le risposte sarebbero state usate per addestrare un sistema di riconoscimento delle immagini. I principali sistemi di riconoscimento delle immagini di oggi basati sull'intelligenza artificiale non sono ancora completamente automatizzati. Per questo motivo, le opinioni di più persone sul contenuto di più immagini di esempio devono essere utilizzate come dati di formazione. I ricercatori hanno voluto provare a implementare il crowdsourcing analizzando gli elettroencefalogrammi (EEG) degli individui e hanno usato le tecniche di intelligenza artificiale per farlo. Ciò consentirebbe di estrarre le informazioni dall'ELETTROENCEFALOGRAMMA invece che le persone debbano esprimere le proprie opinioni. Tuukka Ruotsalo è membro dell'Accademia di Ricerca dell'Università di Helsinki. "Volevamo indagare se il crowdsourcing può essere applicato al riconoscimento delle immagini utilizzando le reazioni naturali delle persone senza che debbano svolgere attività manuali con una tastiera o un mouse", afferma Ruotsalo. \ Lo studio Lo studio ha coinvolto 30 volontari a cui è stato mostrato uno schermo di computer con volti umani. I partecipanti hanno quindi etichettato i volti nella loro mente in base a ciò che era nelle immagini, come un individuo biondo o dai capell...
Continua a Leggere

Timecraft l’intelligenza artificiale in grado di ricreare il modo in cui gli artisti hanno dipinto i loro capolavori

ORA L'IA PUÒ RICREARE IL MODO IN CUI GLI ARTISTI HANNO DIPINTO I LORO CAPOLAVORI Di recente, i ricercatori del MIT hanno introdotto un nuovo sistema di intelligenza artificiale noto come Timecraft che ha la capacità di sintetizzare video time-lapse che descrivono come un determinato quadro potrebbe essere stato creato. Secondo i ricercatori, ci sono varie possibilità e combinazioni uniche di pennelli, pennellate, colori, ecc. In un dipinto e l'obiettivo alla base di questa ricerca è imparare a catturare questa ricca gamma di possibilità. La creazione dello stesso pezzo esatto di un famoso dipinto può richiedere giorni anche a artisti esperti. Tuttavia, con l'avvento di AI e ML, abbiamo assistito alla nascita di un certo numero di artisti AI da alcuni anni. Uno dei più popolari artigiani dell'IA è il ritratto di Edmond Belamy che è stato creato da Generative Adversarial Network (GAN) e venduto per un incredibile valore di 432.500 dollari. In questo studio, i ricercatori hanno presentato un modello probabilistico ricorrente che può catturare un'immagine di un dipinto finito e creare un video time-lapse raffigurante come probabilmente è stato dipinto dall'artista originale. Il sistema è stato formato su oltre 200 video time-lapse esistenti che le persone hanno pubblicato online sia su dipinti digitali che ad acquerelli. Dietro il modello Il modello è implementato come una rete neurale convoluzionale (CNN) e ha introdotto una politica di formazione per consentire l'apprendimento da un set di dati limitato e rumoroso di time-lapse di pittura. I ricercatori hanno lavorato con le registrazioni di time-lapse di pittura digitale e ad acquerello che vengono raccolte da siti Web di video. Il modello di rete neurale convoluzionale può guardare un nuovo dipinto che non è stato addestrato e capire il modo più probabile in cui è stato creato. Nel processo, si sono imbattuti in una serie di sfide come le alte variabilità, tra cui traiettorie di verniciatu...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi