Home / Archive by category "Hardware AI"

Hardware AI

Vision AI Dev Kit Il kit per sviluppatori di Intelligenza Artificiale di Microsoft Vision e Qualcomm

Il kit per sviluppatori AI di Microsoft Vision semplifica la creazione di progetti di apprendimento profondo basati sulla visione La visione artificiale è una delle applicazioni più popolari dell'intelligenza artificiale. Classificazione delle immagini, rilevamento degli oggetti e segmentazione degli oggetti sono alcuni dei casi d'uso dell'intelligenza artificiale basata sulla visione artificiale. Queste tecniche sono utilizzate in una varietà di scenari di consumo e industriali. Dall'autenticazione utente basata sul riconoscimento facciale al tracciamento dell'inventario nei magazzini al rilevamento dei veicoli su strada, la visione artificiale sta diventando parte integrante delle applicazioni di prossima generazione. La visione artificiale utilizza reti neurali avanzate e algoritmi di deep learning come Convolutional Neural Networks (CNN), Single Shot Multibox Detector (SSD) e Generative Adversarial Networks (GAN). L'applicazione di questi algoritmi richiede una conoscenza approfondita dell'architettura della rete neurale, della matematica avanzata e delle tecniche di elaborazione delle immagini. Per uno sviluppatore di ML medio, la CNN rimane un ramo complesso dell'IA. Oltre alla conoscenza e alla comprensione degli algoritmi, le CNN richiedono infrastrutture costose e di fascia alta per l'addestramento dei modelli, che sono fuori portata per la maggior parte degli sviluppatori. Anche dopo essere riusciti a formare e valutare il modello, gli sviluppatori trovano la distribuzione del modello come una sfida. I modelli CNN addestrati vengono spesso implementati in dispositivi periferici che non dispongono delle risorse necessarie per eseguire inferenze, il processo di classificazione e rilevamento delle immagini in fase di esecuzione. I dispositivi Edge sono integrati da chip AI appositamente progettati che accelerano l'inferenza fornita con i propri driver software e un livello di interfacciamento. Gli sviluppatori dovrebbero convertire il mode...
Continua a Leggere

Memorie non volatili emergenti e intelligenza artificiale

Memorie emergenti e intelligenza artificiale Tom Coughlin Il 29 agosto 2019 ho tenuto un seminario su Emerging Memories and Artificial Intelligence presso la Stanford University, organizzato dal Stanford Center for Magnetic Nanotechnology e Coughlin Associates. Abbiamo avuto diversi oratori interessanti che parlavano di vari tipi di intelligenza artificiale e del ruolo che le nuove memorie non volatili svolgeranno sia nell'addestramento dei modelli di intelligenza artificiale che nella loro attuazione sul campo utilizzando i motori di inferenza. Questo pezzo parlerà di parte del materiale presentato in questo seminario. La dott.ssa Shan Wang, co-organizzatore dell'evento, ha fatto una presentazione, parlando di memorie non volatili emergenti e in particolare sulla memoria ad accesso casuale magnetico (MRAM). Ha parlato di come funzionano vari nuovi ricordi, in particolare Resistive RAM (RRAM), Phase Change Memory (PCM), MRAM e Ferrroelectic RAM (FRAM). Ha affermato che gli attuali requisiti di potenza della memoria volatile, in particolare l'energia statica, sono aumentati con caratteristiche litografiche a semiconduttore più piccole. Di tutte queste nuove memorie, MRAM è promettente per la sostituzione di SRAM e DRAM o come complemento di queste memorie e consente un funzionamento a bassa potenza, come mostrato nella tabella seguente. Mentre MRAM promette di sostituire o integrare DRAM e SRAM, PCM e RRAM potrebbero fornire una maggiore capacità e una memorizzazione più lenta e possono anche essere utilizzati come acceleratori analogici di AI (elaborazione neuromorfa). Il discorso del Dr. Wang ha esplorato la fisica della tecnologia magnetoresistiva, che è di uso comune per la lettura dei dati nei dischi rigidi. Ha discusso delle differenze tra le valvole di spin utilizzate nelle testine HDD e le giunzioni del tunnel magnetico utilizzate nei dispositivi MRAM. La prossima generazione di dispositivi MRAM si basa sul trasferimento della coppia di spin e su...
Continua a Leggere

Amazon conferma di conservare i dati di Alexa anche se eliminiamo i file audio

"Gli americani meritano di capire come vengono utilizzati i loro dati personali" Amazon ha ammesso che non elimina sempre i dati memorizzati che ottiene attraverso le interazioni vocali con i dispositivi Alexa ed Echo della società, anche dopo che un utente sceglie di cancellare i file audio dal proprio account . Le rivelazioni, delineate esplicitamente da Amazon in una lettera al senatore Chris Coons (D-DE), che è stata pubblicata oggi e datata 28 giugno, getta ancora più luce sulle pratiche di privacy della società per quanto riguarda il suo assistente vocale digitale. Le risposte sono il seguito di una richiesta di Coons che risale al mese scorso, quando Coons ha messo in dubbio quanto a lungo l'azienda tratti le registrazioni vocali e le trascrizioni dalle interazioni di Echo. Nella lettera di questa settimana, Amazon ha confermato alcune delle accuse. "Conserviamo le registrazioni vocali dei clienti e le trascrizioni fino a quando il cliente sceglie di eliminarle", si legge nella lettera. AMAZON NON ELIMINA SEMPRE I DATI RACCOLTI UTILIZZANDO ALEXA, ANCHE QUANDO LO COMUNICHI A seguito di un'indagine CNET pubblicata a maggio , c'è stata anche una domanda sul fatto che Amazon abbia conservato le trascrizioni testuali delle interazioni vocali con Alexa, anche dopo che un utente ha scelto di eliminare l'equivalente audio. Amazon afferma che alcune di quelle trascrizioni o informazioni ricavate dalle trascrizioni non vengono effettivamente rimosse, sia perché l'azienda deve sfregare i dati da varie parti dei suoi sistemi di archiviazione di dati globali sia perché, in alcuni casi, Amazon sceglie di conservare i dati senza dire l'utente. Nella sua risposta, Brian Huseman, vice presidente delle politiche pubbliche di Amazon, ha affermato che la società è impegnata in uno "sforzo continuo per garantire che tali trascrizioni non rimangano in nessuno degli altri sistemi di storage di Alexa". In altre parole, anche se un utente elimina manualmente la versi...
Continua a Leggere

Le incredibili navi autonome del futuro guidate dall’intelligenza artificiale

Le incredibili navi autonome del futuro: gestite dall'intelligenza artificiale piuttosto che da un equipaggio C'è stata molta discussione sui veicoli autonomi sulla terra e nell'aria, ma che dire del mare? Mentre il mondo ha dato il primo assaggio di un traghetto completamente autonomo grazie alla collaborazione tra Rolls-Royce e Finferries, l'operatore di traghetti statale della Finlandia, c'è ancora un po 'di lavoro da fare prima che possiamo aspettarci che i corsi d'acqua del mondo essere superati con navi autonome. Anche se potremmo essere anni o addirittura decenni lontano dalla maggior parte delle navi che diventano autonomi, ci sono certamente algoritmi di intelligenza artificiale al lavoro oggi. Una nave completamente autonoma sarebbe considerata una nave che può operare da sola senza un equipaggio. Le navi remote sono quelle che vengono gestite da un umano dalla costa e una nave automatizzata gestisce un software che ne gestisce i movimenti. Man mano che la tecnologia matura, più tipi di navi passeranno probabilmente dall'essere presidiati ad avere alcune capacità autonome. Le navi autonome potrebbero essere utilizzate per alcune applicazioni, ma è del tutto possibile che ci sarà ancora un equipaggio a bordo di alcune navi, anche se tutti gli ostacoli per l'acquisizione di una flotta completamente autonoma saranno superati. Autonomia nelle navi Come abbiamo visto con il traghetto finlandese, le prime navi autonome saranno schierate su semplici applicazioni di navigazione interna o costiera dove le acque sono calme, il percorso è semplice e il traffico non è molto intenso. C'è anche una nave portacontainer elettrica interna, Yara Birkeland , in costruzione che dovrebbe essere completata nel 2020 e completamente autonoma entro il 2022. Alcune aziende stanno costruendo navi completamente autonome da zero, mentre altre start-up stanno sviluppando sistemi semi-autonomi per essere usato su navi esistenti. Quando la Rolls-Royce vendette la sua ...
Continua a Leggere

Il Cloud il calcolo e l’intelligenza artificiale

Il cloud commerciale che era una volta sinonimo del compito banale di esternalizzazione dell'hardware è diventato sempre più importante per i servizi e le capacità analitiche che possono essere costruite quando il calcolo della potenza non è più un limite. In nessun luogo questo è più evidente che nel mondo dell'apprendimento profondo. Aziende come Google non solo forniscono accesso a hardware collaudato e collaudato , ma avvolgono questi sistemi con offerte analitiche point-and-click e su scala di dati che stanno sempre più democratizzando l' accesso all'IA. L'apprendimento profondo nel cloud oggi non si limita più solo all'outsourcing del calcolo, ma in realtà si unisce alla prima fila della rivoluzione dell'IA stessa. Gli albori del cloud commerciale sono stati in gran parte relegati ai compiti poco chiari di migrazione dei carichi di lavoro dai rack di computer locali in metallo fino ai data center remoti virtualizzati. L'attenzione era spesso rivolta al sollevamento e al trasferimento di applicazioni verso i data center che offrivano scalabilità e affidabilità quasi sconosciute negli ambienti locali. Mentre era banale rispetto alla "nuvola" odierna, questa era iniziale era enormemente trasformativa nel consentire il tipo di servizi digitali che vediamo oggi, anche se l'obiettivo principale era semplicemente il calcolo dell'outsourcing. Con la maturazione del cloud, l'attenzione si è concentrata sui servizi che possono essere costruiti su infrastrutture quasi indescrivibili. Dalle piattaforme di analisi chiavi in ​​mano come BigQuery ai database globali come Spanner , l'elenco infinitamente scorrevole di tutti i prodotti e servizi che compongono il cloud di Google oggi testimonia quanto il cloud moderno sia diventato oltre il semplice noleggio di macchine virtuali. Soprattutto, lavorare nel cloud non è come comprare un software tradizionale. Piuttosto che una singola istantanea nel tempo o gli aggiornamenti annuali al meglio, il cloud rappresenta un...
Continua a Leggere

Facebook e i suoi ragno robot per far avanzare la sua ricerca sulla AI Intelligenza artificiale

Facebook sta sperimentando con i robot per far avanzare la sua ricerca sull'IA Ma non aspettarti di vedere alcun robot di Facebook in vendita Un robot hexapod utilizzato da Facebook nella sua ricerca . Facebook è sicuramente una società high-tech, ma non è una che si dovrebbe necessariamente associare ai robot. Tuttavia, come l'azienda ha rivelato oggi , questo è esattamente il punto in cui i suoi ricercatori stanno guardando in seguito - cercando di vedere come gli esperimenti in robotica possano favorire il suo lavoro nell'IA. Questo non è raro per le grandi aziende tecnologiche. Molte aziende, tra cui Google, Nvidia e Amazon, utilizzano i robot come piattaforma per esplorare le vie della ricerca sull'intelligenza artificiale. I robot di controllo sono, in molti modi, più difficili delle sfide come giocare a giochi da tavolo e videogiochi . Con questi ultimi compiti, i ricercatori hanno accesso a ambienti di gioco simulati, che consentono agli agenti IA di giocare e imparare a velocità accelerate. Non esiste una tale scorciatoia per i robot di addestramento. "Il bello della robotica è che si svolge in tempo reale, nel mondo reale", ha dichiarato a Bloomberg News il conduttore di Facebook Antoine Bordes, co-amministratore delegato dei laboratori di ricerca sull'intelligenza artificiale dell'azienda . Gli esperimenti di Facebook implicano l'uso del senso del tatto per aiutare un robot a completare compiti semplici. Immagine: Facebook La ricerca è ampia e Facebook ha condiviso dettagli su un trio di articoli . Il primo consiste nell'ottenere un robot a sei zampe per insegnare a se stesso come superare prove ed errori, il secondo è sfruttare la "curiosità" per aiutare i robot ad imparare più velocemente, e il terzo è usare il senso del tatto per aiutare un robot a raggiungere compiti come rotolare una palla. Nessuno di questi documenti è di per sé innovativo e gli argomenti in corso di ricerca vengono anche affrontati altrove da università e lab...
Continua a Leggere

Hewlett Packard si compra Cray

Hewlett Packard Enterprise acquisisce il produttore di supercomputer Cray nella corsa alla performance "exascale" HPE ha acquistato Cray per circa 1,3 miliardi di dollari Hewlett Packard Enterprise, da non confondere con il marchio di personal computing da cui è divisa nel 2015, ha dichiarato oggi di aver acquisito Cray, un produttore iconico di supercomputer con una ricca storia nel settore informatico. Si dice che l'accordo sia valutato a $ 1,3 miliardi. Cray, fondata nel 1972 da "padre del supercalcolo", Seymour Cray, è attualmente impegnata a costruire due dei supercomputer più veloci del mondo per due Department of Energy Labs degli Stati Uniti: l'Oak Ridge National Laboratory e l'Argonne National Laboratory. Entrambi i sistemi, uno chiamato Frontier in collaborazione con AMD e uno chiamato Aurora con Intel , promettono di portare le cosiddette prestazioni "exascale", con una potenza delle prestazioni non elaborata pari a 1,5 exfaflops o un calcolo al quintilione al secondo. LE DITTE DI CALCOLO STANNO CORRENDO PER RAGGIUNGERE PRESTAZIONI EXASCALE, O UN QUINTILIONE DI OPERAZIONI AL SECONDO Tali sistemi di supercomputer exascale non esistono ancora ed è logico che HPE voglia il proprio interesse nelle imminenti "opportunità exascale", per le quali la società afferma che esiste un mercato in crescita principalmente di contratti governativi, attualmente stimato a $ 4 miliardi nel prossimo semestre -decennio. Attualmente, IBM è il produttore dei due supercomputer più veloci del mondo, Summit e Sierra. "Le risposte ad alcune delle sfide più urgenti della società sono sepolte in enormi quantità di dati", ha detto il CEO di HPE Antonio Neri in una nota. "Solo elaborando e analizzando questi dati saremo in grado di sbloccare le risposte alle sfide cruciali tra medicina, cambiamenti climatici, spazio e altro ancora. Cray è un leader tecnologico globale nel supercomputing e condivide il nostro profondo impegno per l'innovazione. Combinando i nostri te...
Continua a Leggere

L’intelligenza artificiale richiedere più motori di intelligenza artificiale usati contemporaneamente

AI non è un compito singolare - Anche le operazioni di base possono richiedere più motori di intelligenza artificiale L'intelligenza artificiale ha molte applicazioni e ogni applicazione può avere molteplici compiti: l'intelligenza artificiale non è singolare. Un grosso equivoco sull'intelligenza artificiale (AI) è che si tratti di un singolo compito o soluzione, specialmente nei dispositivi periferici. Molte aziende implicano che se si desidera l'intelligenza artificiale nel telefono, nell'auto o in qualsiasi altra cosa, è sufficiente un singolo motore di intelligenza artificiale. Sfortunatamente, l'elaborazione AI non è così semplice. Anche la funzione AI più elementare, come rispondere a una query vocale, può richiedere il completamento di più attività. Di conseguenza, per completare ciascuna attività sono necessari più motori di intelligenza artificiale o unità di elaborazione oppure i motori esistenti devono essere in grado di supportare più attività, il che richiede la riprogrammazione tra le attività per ciascun modello di intelligenza artificiale specifico. Quando parliamo di AI, oltre il 90% di tutta l'elaborazione AI cloud e il 99% di elaborazione AI edge su dispositivi sono processi di inferenza - l'esecuzione di un task su un modello di rete neurale addestrato. Ciò significa che il modello utilizzato è già preprogrammato per essere eseguito su una qualche forma di unità di elaborazione, ad esempio un'unità di elaborazione centrale (CPU), un'unità di elaborazione grafica (GPU), un processore di segnale digitale (DSP), un gate gate programmabile sul campo (FPGA) ), Elaboratore di segnali di immagine (ISP), Unità di elaborazione video (VPU) o un'unità di elaborazione neurale personalizzata (NPU). Le mie scuse per il sovraccarico di acronimo, ma essenzialmente il modello di rete neurale deve essere eseguito su una qualche forma di un circuito logico. Per eseguire più modelli contemporaneamente o in rapida successione, è necessario disporre di più m...
Continua a Leggere

Un nuovo capitolo nella intelligenza artificiale l’ inferenza dell’apprendimento automatico e serve hardware migliore

Cosa riserva il futuro all'intelligenza artificiale? Un collega IBM con 116 brevetti condivide la sua visione futura dell'informatica per l'intelligenza artificiale. Simon Erickson ( TMFInnovator ) Le cose stanno per diventare davvero interessanti. L'intelligenza artificiale è già diventata mainstream . Le aziende utilizzano le unità di elaborazione grafica NVIDIA ( NASDAQ: NVDA ) , gli array di gate programmabili sul campo Xilinx ( NASDAQ: XLNX ) oi propri chip personalizzati per addestrare i modelli di apprendimento automatico a riconoscere una varietà di input diversi. Questo metodo di formazione delle reti neurali è la ragione tecnica per cui le auto autonome di Tesla possono riconoscere i segnali di stop e il social network di Facebook può riconoscere i volti. Ma stiamo raggiungendo un'era nuova ed eccitante, che si basa su un processo chiamato inferenza di apprendimento automatico. Diverso dall'addestramento, l'inferenza coinvolge i computer prendendo tutto ciò che abbiamo insegnato loro a produrre qualcosa di completamente nuovo. Un'immagine raffigurante un robot umanoide con il mondo come il suo cervello. L'INTELLIGENZA ARTIFICIALE STA GUADAGNANDO TRAZIONE A LIVELLO GLOBALE. FONTE IMMAGINE: GETTY IMAGES. Prendi questo sito come esempio. Mostra immagini ad alta risoluzione di persone dall'aspetto normale, che potrebbero facilmente essere i tuoi colleghi o vivere nella porta accanto. Ma il problema è che nessuna di queste persone esiste realmente. Ognuna delle immagini è falsa, creata artificialmente da una rete generativa di avversari che è stata addestrata su quali occhi, nasi e capelli tendono ad assomigliare. AI ha creato qualcosa da solo, basato su tutto ciò che l'abbiamo insegnato. Questo stesso concetto di inferenza della macchina è ciò che consente a Google ( NASDAQ: GOOGL ) Duplex di fissare appuntamenti per te o Amazon ( NASDAQ: AMZN ) Alexa per creare proattivamente consigli sui prodotti per te. Dietro le quinte, l'i...
Continua a Leggere

Xnor la fotocamera wireless ad intelligenza artificiale funziona a energia solare

Questa fotocamera AI wireless funziona interamente a energia solare Attaccalo alla luce del sole e può trasmettere dati praticamente all'infinito Il dispositivo prototipo costruito dall'avvio Xnor può funzionare indefinitamente solo alla luce del sole. Una grande tendenza nell'IA è la transizione dal cloud al computing edge. Invece che i dispositivi AI eseguono il loro calcolo da remoto tramite una connessione Internet, gestiscono sempre più le cose a livello locale, con algoritmi che funzionano direttamente sul dispositivo. I vantaggi di questo approccio possono includere risultati più rapidi, maggiore sicurezza e maggiore flessibilità. Ma fino a che punto puoi spingere questo modello? La startup di Seattle, Xnor, è certamente all'avanguardia. Questa settimana la società ha presentato un prototipo di fotocamera AI che funziona interamente a energia solare, senza bisogno di batteria o fonte di alimentazione esterna. La fotocamera ha una risoluzione di 320 x 320 , un chip FGPA per gestire l'elaborazione e viene caricata con un algoritmo di riconoscimento degli oggetti allo stato dell'arte. In teoria, potresti attaccare un dispositivo come questo ovunque all'aperto e farlo trasmettere a te in modo indefinito. È compatibile con un paio di diversi protocolli di comunicazione wireless a bassa energia (perché scarichi Wi-Fi troppa batteria) che lasciarlo inviare informazioni per decine di chilometri. E, dice Xnor, se lo si adatta con una batteria, può immagazzinare energia sufficiente durante il giorno per tenerlo in funzione durante le ore di bassa luminosità e di notte. "Stiamo esaminando diversi casi d'uso per questi dispositivi in ​​questo momento", dice Mohammad Rastegari, CTO di Xnor, a The Verge . "Dai progetti civili su larga scala, al monitoraggio all'interno delle cabine di automobili autonome, al collegamento di telecamere ai droni". Xnor ha un forte background in questa sorta di miniaturizzazione dell'IA. È stato scorporato dall'Allen Insti...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi