Home / Archive by category "Hardware AI"

Hardware AI

I nuovi chip AI edge di ARM promettono dispositivi IoT che non avranno bisogno del cloud

I dispositivi intelligenti del futuro potrebbero non aver bisogno di server per abilitare l'IA Edge AI è una delle maggiori tendenze nella tecnologia dei chip. Si tratta di chip che eseguono l'elaborazione AI al limite o, in altre parole, su un dispositivo senza una connessione cloud. Apple ha recentemente acquistato una società specializzata in essa, l'iniziativa Coral di Google è pensata per renderlo più semplice e ARM Chipmaker ci sta già lavorando da anni. Ora, ARM sta espandendo i suoi sforzi sul campo con due nuovi design di chip: Arm Cortex-M55 e Ethos-U55, un'unità di elaborazione neurale destinata ad accoppiarsi con Cortex-M55 per casi d'uso più impegnativi. I vantaggi di Edge AI sono chiari: l'esecuzione dell'elaborazione AI su un dispositivo stesso, anziché in un server remoto, offre grandi vantaggi alla privacy e alla velocità quando si tratta di gestire queste richieste. Come gli altri chip ARM, i nuovi design non saranno prodotti da ARM; piuttosto, fungono da schemi per un'ampia varietà di partner da utilizzare come base per il proprio hardware. ARM INTENDE UTILIZZARE I CHIP PER SVILUPPARE NUOVI DISPOSITIVI IOT Ma ciò che rende particolarmente interessanti i nuovi design di chip di ARM è che non sono pensati per telefoni e tablet. Invece, ARM intende che i chip vengano utilizzati per sviluppare nuovi dispositivi Internet of Things, portando l'elaborazione dell'IA a più dispositivi che altrimenti non avrebbero tali capacità. Un caso d'uso ARM immagina è una telecamera a 360 gradi in un bastone da passeggio in grado di identificare ostacoli o nuovi sensori di treni in grado di identificare localmente problemi ed evitare ritardi. Per quanto riguarda le specifiche, Arm Cortex-M55 è l'ultimo modello della linea di processori ARM Cortex-M, che secondo l'azienda offre un miglioramento fino a 15 volte nelle prestazioni di apprendimento automatico e un miglioramento 5 volte nelle prestazioni di elaborazione del segnale digitale rispetto alla p...
Continua a Leggere

Yoto Player un altoparlante intelligente per bambini

Pentagram ha progettato un altoparlante intelligente che è come HitClips per bambini Yoto Player , un altoparlante collegato per bambini, ha più in comune con i lettori di cassette della vecchia scuola che con gli altoparlanti intelligenti come Amazon Echo o dispositivi Google Home. Non ha deliberatamente un microfono, una fotocamera o uno schermo: è davvero progettato per riprodurre l'audio, ma attraverso schede fisiche abilitate per NFC. Ispirati agli insegnamenti di Montessori che enfatizzano l'apprendimento tattile e incoraggiano i bambini ad avere un livello di indipendenza, le carte sono caricate con canzoni, audiolibri e podcast per consentire ai bambini di scegliere ciò che vogliono ascoltare. È stato creato da due genitori che volevano ridurre al minimo il tempo di schermo per i loro figli - rispetto agli altoparlanti Bluetooth che devono essere accoppiati con un telefono - e dopo una corsa di successo di Kickstarter con la sua prima versione, Yoto ha collaborato con Pentagram, (il rinomato studio di design dietro tutto daYahoo riprogettazione ai microprocessori ) per una seconda volta. Le carte fisiche si inseriscono nella parte superiore di chi parla come i nostalgici HitClips di un tempo, che racchiudeva clip musicali di dimensioni ridotte in minuscoli quadrati di plastica. I genitori possono collegare l'altoparlante a un'app companion per "caricare" i propri contenuti su schede vuote o acquistare schede che si collegano alla libreria di musica, attività, effetti sonori e audiolibri di Yoto da partner come Random House e la collezione Roald Dahl. L'altoparlante richiede il Wi-Fi e le schede NFC contengono collegamenti a contenuti archiviati sui server di Yoto, quindi l'oratore sta effettivamente scaricando i contenuti quando vengono inseriti in Yoto Player. Le schede vuote possono essere personalizzate con i tuoi MP3, audiolibri acquistati o qualsiasi cosa carichi sul server di Yoto. Ci sono contenuti giornalieri gratuiti, ma Yoto vende anche un s...
Continua a Leggere

Alexa Light Bulb : Tom Sunderland afferma di aver realizzato la prima lampadina AI al mondo utilizzando parti di Amazon Echo Dot

L'inventore Tom Sunderland afferma di aver realizzato la prima lampadina AI al mondo utilizzando parti di Amazon Echo Dot, una lampadina intelligente e pezzi stampati in 3D. Non siamo estranei ai sistemi di automazione domestica nel 2019. Le persone emettono comandi vocali per accendere le luci, bloccare le porte e persino riprodurre la loro musica preferita. Ma che ne dici di una lampadina alimentata dall'intelligenza artificiale che prende direttamente il tuo comando, riproduce musica e chiama anche il tuo partner? Questo è ciò che ha inventato Tom Sunderland e l'ha soprannominata Alexa Light Bulb. Anche se può sembrare un prodotto realizzato in fabbrica, c'è molto di più. Sunderland afferma che è un prototipo sperimentale realizzato con Amazon Echo Dot, una lampadina intelligente e parti stampate in 3D. È il terzo prototipo che ha creato nella sua ricerca per accoppiare la tecnologia da un Amazon Echo Dot con una lampadina intelligente. A differenza di una lampadina intelligente standard, tuttavia, la lampadina Alexa è super intelligente. E l'invenzione di Sunderland, dice, ha reso "l'aggiunta di Alexa in qualsiasi stanza … facile come cambiare una lampadina!" Sunderland ha già presentato domanda di brevetto e afferma che è possibile installare un sistema di lampadine Alexa in casa installandole in stanze diverse e sincronizzandole per lavorare in coordinazione. Per creare la sua lampadina super intelligente, Sunderland ha rimosso tre componenti da un Amazon Echo Dot: la scheda madre, l'altoparlante e la scheda del microfono a LED. Ha anche rimosso il driver LED e la matrice LED da una lampadina intelligente. Una volta che aveva i pezzi di cui aveva bisogno, è stato in grado di delineare l'aspetto del prototipo. Ha quindi trasformato i suoi schizzi in un modello 3D, che ha progettato e stampato su una stampante 3D MakerBot. Puoi guardare il resto del processo che Sunderland ha impiegato per costruire la sua lampadina nel suo video det...
Continua a Leggere

Come usare Alexa per accendere le luci

L'implementazione della tecnologia della casa intelligente è una delle promesse più allettanti dei sistemi di controllo vocale come Alexa. È allettante (e forse inevitabile) cadere in una tana di coniglio di complessità quando si imposta una casa intelligente perché ci sono così tante opzioni e possibilità. Se hai appena iniziato, potrebbe essere una buona idea semplificare il tuo primo passo nella creazione di una casa intelligente. Ad esempio, iniziamo installando una singola lampadina che puoi chiedere ad Alexa di accendere e spegnere. Esistono molte marche di lampadine intelligenti e, di conseguenza, le procedure di installazione possono differire da marca a marca. Ho scelto una lampadina Philips Hue perché sono facilmente disponibili, veloci da installare e ben supportate. CONFIGURAZIONE INIZIALE Il primo passo è avvitare la lampadina (inserire qui uno scherzo) e la prima cosa da verificare è se la lampada è su un dimmer. Molte lampadine funzionano con i dimmer, ma i dimmer più vecchi non sono in grado di gestire gli attuali requisiti delle lampade a LED. Puoi preoccuparti di questo mentre approfondisci le configurazioni della casa intelligente; per ora, evita i dimmer. Pronto? Apri l'app Alexa sul telefono, accendi la luce e attendi qualche secondo. Tocca la scheda "Dispositivi" nell'angolo in basso a destra dello schermo. Nella parte superiore della schermata Dispositivi, ci sono alcuni pulsanti. Il primo dice "Echo & Alexa" e l'ultimo dice "Tutti i dispositivi". Se sei fortunato, vedrai anche un pulsante per "Luci" tra di loro. Toccalo, perché significa che Alexa ha installato la tua luce da sola. Ora puoi passare alla sezione di questo articolo intitolata "Installazione finale". AGGIUNTA MANUALE DI UN DISPOSITIVO Se non sei così fortunato, hai una piccola configurazione da fare. Tocca il segno più in alto a destra nella schermata Dispositivi, quindi tocca “Aggiungi dispositivo” dal menu che si apre. Nella parte superiore sono presen...
Continua a Leggere

Piaggio Gita RED e il futuro robotico

Il primo robot personale utile porta solo le tue cose Una giornata con lo schlep-bot Gita mi ha dato un'idea di come sarà la vita quotidiana condivisa con i robot Corinne Purtill TTmercato ha contadino settimanale a El Segundo, un accogliente città di mare, all'ombra della Los Angeles International Airport, ha tutto quello che ci si aspetta di vedere in un tale evento ($ 6 cialde organici, $ 8 vasetti di crauti barbabietola, i genitori Athleisure rivestito spingendo passeggini) e alcune cose che non si fanno. Ciò include - in un pomeriggio recente - una flotta di assistenti robot personali. Il robot in questione si chiama Gita (pronuncia jee-ta ), una parola italiana che significa uscita o breve viaggio. È realizzato da Piaggio Fast Forward, un derivato con sede a Boston del produttore italiano del famoso scooter Vespa. Ma se la Vespa è un partner sexy ed elegante nell'avventura, Gita è un umile e leale footman, contento di seguirlo obbedientemente piuttosto che ruggire. Il robot a riposo assomiglia a un refrigeratore per bevande con ruote, con un interno spazioso progettato per contenere fino a 40 libbre di qualsiasi cosa tu scelga di gettare all'interno. Mettiti di fronte a Gita, tocca l'app e il robot si risveglia con un piccolo beep ottimista. Cinque telecamere sulla parte anteriore del robot registrano la forma delle gambe e la loro profondità relativa da altri oggetti nell'ambiente. Il robot quindi segue quelle gambe ovunque vadano. È un carrello della spesa semovente e a mani libere che si muove come il cugino dolce di BB-8. La fermata di Gita a El Segundo faceva parte di un tour nazionale in corso per presentare il robot ai potenziali clienti prima del lancio del 18 novembre. Una Gita costa $ 3,250 , il che significa che almeno inizialmente, questo sarà un assistente robot per i ricchi di noi, non per il resto di noi. Potremmo un giorno trovarci irritati dai marciapiedi intasati con robot simili a quelli di Gita come lo siamo con gli scooter elettrici. M...
Continua a Leggere

Gli occhi bionici collegati a Internet

Gli occhi bionici collegati a Internet cambieranno la società Speculazione sull'ultimo indossabile a un passo dalle protesi neurali invasive È passato solo poco più di un decennio dal lancio del primo iPhone, ma i dispositivi mobili hanno già avuto un impatto enorme come nei seguenti casi. Ha distrutto intere industrie portando a società per un valore di miliardi di dollari come Uber e il suo rifacimento dei trasporti. Ha svolto un ruolo chiave nel coordinamento e nella condivisione di immagini e video in movimenti politici come la Rivoluzione verde iraniana. Dare forma alla crescita e alla struttura di intere società, come in Cina, India o Africa, dove le aree meno sviluppate aggirano il normale sviluppo di Internet cablato a favore del salto diretto alla trasmissione dei dati attraverso le torri cellulari. La crescita esponenziale degli smartphone è stata integrata da una crescita ancora più impressionante di dispositivi indossabili come gli smartwatch. Man mano che la tecnologia di elaborazione diventa più potente, più economica e più piccola, possiamo aspettarci che i dispositivi indossabili diventino ancora più onnipresenti nella nostra vita quotidiana e svaniscano in modo da non essere più visibili. Tuttavia, giocheranno una parte ancora più grande della nostra vita. Fino a che punto questo continuerà? Credo che l'umanità avrà presto un intervento chirurgico discrezionale per sostituire i nostri occhi con occhi bionici collegati a Internet. Qui speculerò sulle affascinanti implicazioni di come gli occhi bionici influenzeranno la vita quotidiana e la società. Dove gli occhi bionici si adattano alla progressione della tecnologia Lenti a contatto intelligenti Poiché l'elettronica flessibile, le batterie più efficienti e più piccole e la stampa 3D aumentano con raffinatezza, sarebbe naturale che le lenti a contatto intelligenti apparissero prima agli occhi bionici poiché potrebbero essere più tecnologicamente fattibili, più economiche e molto meno invasive. In...
Continua a Leggere

Google ha appena staccato la spina della sua fotocamera Clips era basata sull’intelligenza artificiale di Google

La fotocamera basata su AI di Google era destinata a fallire Un programma non può dire cosa sia "interessante" Google ha appena staccato la spina della sua fotocamera Clip, un piccolo dispositivo che avrebbe dovuto catturare le foto dei piccoli frammenti della vostra giornata che altrimenti scivolare da. Forse scattava una foto del tuo bambino che sorrideva mentre andavi a prenderli, o il tuo cane che scodinzolava mentre camminavi sulla porta. Ma quando i revisori e i consumatori hanno messo le mani sul dispositivo, quella fiaba non ha funzionato. “Indossavo la macchina fotografica sul colletto della camicia mentre giocavo con mia figlia sperando che catturasse tutti i suoi sorrisi a 7 settimane. Accesso all'app, niente. Sono stato schiacciato ", ha scritto una recensione sul sito web di Best Buy. Google ha promesso di utilizzare l'IA per catturare momenti interessanti della nostra vita, e questo era il problema esatto: Non esiste una definizione di interessante. Come utente, hai dovuto dedicare molto tempo a mostrare a Google di cosa volevi che facesse le foto. L' anno scorso Cherlynn Low di Engadget ha scritto di aver addestrato l'IA dei Clips sulla sua storia di Google Foto, apparentemente un diario delle sue preferenze visive, e ancora non riusciva a farlo fotografare in modo affidabile il suo cane o i suoi amici. Sappiamo cosa l'IA è brava a fare: prendere una decisione con una risposta chiaramente corretta. Se c'è un cane in un'immagine, Google può identificarlo. Il cane è un dato di fatto. Ma per Google capire quando il tuo cane sta facendo qualcosa che vuoi vedere di nuovo, come la faccia colpevole che fa dopo aver scavato nella spazzatura, ha bisogno di una tonnellata di informazioni esterne che non saranno le stesse per ogni utente. In altre parole, l'IA non funziona quando deve quantificare qualcosa di qualitativo. Ciò dipende dal fatto che una persona sia affidabile o meno che una foto sia buona o cattiva. “Fondamentalmente, stiamo cercando di insegn...
Continua a Leggere

Il migliore altoparlante intelligente AMAZON ECHO STUDIO contro Apple HomePod contro Google Home Max contro Sonos One contro Amazon Echo (3a generazione) contro Sonos Move contro Symfonisk di Ikea

Come i nuovi Echo di Amazon si confrontano con altri altoparlanti intelligenti Amazon vs Apple vs Google vs Sonos Questa settimana Amazon ha introdotto due nuovi altoparlanti intelligenti nella valanga di annunci al suo evento hardware dell'autunno 2019 di questa settimana: un Echo di terza generazione e quello che sostiene sia il suo miglior diffusore, Echo Studio . Pionieristico di Amazon con l'originale Echo, il mercato degli altoparlanti intelligenti ha ora una manciata di concorrenti tra cui scegliere. Ma come si confrontano i nuovi modelli di Amazon? AMAZON ECHO STUDIO Se vuoi il miglior altoparlante Echo per la musica, Echo Studio da 199,99 $ è quello che Amazon vuole che tu acquisti. Ha cinque driver - un tweeter da 1 pollice, tre altoparlanti midrange da 2 pollici e un woofer da 5,25 pollici - che dovrebbero essere in grado di mostrare Amazon Music HD, il nuovo livello di streaming musicale di Amazon che offre streaming senza perdite. Supporta anche "audio 3D" per le poche tracce che lo supportano, utilizzando formati come Dolby Atmos e Sony 360 Reality Audio. Una novità della gamma Echo (ma non dei concorrenti di Amazon) è la capacità di Echo Studio di ottimizzare automaticamente l'output per la stanza in cui si trova. Come Echo Studio, Echo Studio è in grado di riprodurre musica dalla maggior parte dei popolari servizi musicali. Il mio collega Dan Seifert ha avuto una sessione di ascolto privato e ha detto che Echo Studio "sfiderà facilmente" altri altoparlanti intelligenti di fascia alta. E poiché ha un prezzo inferiore rispetto a molti dei suoi concorrenti, "dovrebbe far sì che Sonos, Apple e Google si siedano e ascoltino". Puoi preordinare Echo Studio oggi e Amazon afferma che sarà disponibile il 7 novembre. Amazon Echo Studio Ad un prezzo di $ 199, Sonos One è un concorrente diretto del nuovo Echo Studio di Amazon. Tuttavia, mentre Echo Studio è un affare solo per Alexa, Sonos One ti dà molta più libertà, con la possibi...
Continua a Leggere

Vision AI Dev Kit Il kit per sviluppatori di Intelligenza Artificiale di Microsoft Vision e Qualcomm

Il kit per sviluppatori AI di Microsoft Vision semplifica la creazione di progetti di apprendimento profondo basati sulla visione La visione artificiale è una delle applicazioni più popolari dell'intelligenza artificiale. Classificazione delle immagini, rilevamento degli oggetti e segmentazione degli oggetti sono alcuni dei casi d'uso dell'intelligenza artificiale basata sulla visione artificiale. Queste tecniche sono utilizzate in una varietà di scenari di consumo e industriali. Dall'autenticazione utente basata sul riconoscimento facciale al tracciamento dell'inventario nei magazzini al rilevamento dei veicoli su strada, la visione artificiale sta diventando parte integrante delle applicazioni di prossima generazione. La visione artificiale utilizza reti neurali avanzate e algoritmi di deep learning come Convolutional Neural Networks (CNN), Single Shot Multibox Detector (SSD) e Generative Adversarial Networks (GAN). L'applicazione di questi algoritmi richiede una conoscenza approfondita dell'architettura della rete neurale, della matematica avanzata e delle tecniche di elaborazione delle immagini. Per uno sviluppatore di ML medio, la CNN rimane un ramo complesso dell'IA. Oltre alla conoscenza e alla comprensione degli algoritmi, le CNN richiedono infrastrutture costose e di fascia alta per l'addestramento dei modelli, che sono fuori portata per la maggior parte degli sviluppatori. Anche dopo essere riusciti a formare e valutare il modello, gli sviluppatori trovano la distribuzione del modello come una sfida. I modelli CNN addestrati vengono spesso implementati in dispositivi periferici che non dispongono delle risorse necessarie per eseguire inferenze, il processo di classificazione e rilevamento delle immagini in fase di esecuzione. I dispositivi Edge sono integrati da chip AI appositamente progettati che accelerano l'inferenza fornita con i propri driver software e un livello di interfacciamento. Gli sviluppatori dovrebbero convertire il mode...
Continua a Leggere

Memorie non volatili emergenti e intelligenza artificiale

Memorie emergenti e intelligenza artificiale Tom Coughlin Il 29 agosto 2019 ho tenuto un seminario su Emerging Memories and Artificial Intelligence presso la Stanford University, organizzato dal Stanford Center for Magnetic Nanotechnology e Coughlin Associates. Abbiamo avuto diversi oratori interessanti che parlavano di vari tipi di intelligenza artificiale e del ruolo che le nuove memorie non volatili svolgeranno sia nell'addestramento dei modelli di intelligenza artificiale che nella loro attuazione sul campo utilizzando i motori di inferenza. Questo pezzo parlerà di parte del materiale presentato in questo seminario. La dott.ssa Shan Wang, co-organizzatore dell'evento, ha fatto una presentazione, parlando di memorie non volatili emergenti e in particolare sulla memoria ad accesso casuale magnetico (MRAM). Ha parlato di come funzionano vari nuovi ricordi, in particolare Resistive RAM (RRAM), Phase Change Memory (PCM), MRAM e Ferrroelectic RAM (FRAM). Ha affermato che gli attuali requisiti di potenza della memoria volatile, in particolare l'energia statica, sono aumentati con caratteristiche litografiche a semiconduttore più piccole. Di tutte queste nuove memorie, MRAM è promettente per la sostituzione di SRAM e DRAM o come complemento di queste memorie e consente un funzionamento a bassa potenza, come mostrato nella tabella seguente. Mentre MRAM promette di sostituire o integrare DRAM e SRAM, PCM e RRAM potrebbero fornire una maggiore capacità e una memorizzazione più lenta e possono anche essere utilizzati come acceleratori analogici di AI (elaborazione neuromorfa). Il discorso del Dr. Wang ha esplorato la fisica della tecnologia magnetoresistiva, che è di uso comune per la lettura dei dati nei dischi rigidi. Ha discusso delle differenze tra le valvole di spin utilizzate nelle testine HDD e le giunzioni del tunnel magnetico utilizzate nei dispositivi MRAM. La prossima generazione di dispositivi MRAM si basa sul trasferimento della coppia di spin e su...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi