Home / Articles posted byceleborn

Author: celeborn

Google Teachable Machine 2.0 aggiornamento

Google aggiorna il suo trainer AI senza codice e nel browser per renderlo più funzionale Addestra ed esporta il tuo sistema di intelligenza artificiale senza una riga di codice Google ha aggiornato la sua Teachable Machine , un esperimento web all'interno del browser pubblicato originariamente nel 2017 per insegnare alle persone alcuni principi di base dell'apprendimento automatico. La versione originale dell'app era davvero solo un piccolo esperimento divertente che poteva essere usato per classificare i dati visivi dalla tua webcam. (Gli ho insegnato a identificare le mie piante d'appartamento!) Ma Google ha aggiunto nuove modalità al sistema insieme all'opzione per esportare modelli addestrati, rendendo Teachable Machine 2.0 un sistema più funzionale per costruire veri e propri strumenti di intelligenza artificiale. Insieme ai dati delle immagini, Teachable Machine ora funziona con input di posa audio e corpo. Gli utenti possono caricare i propri set di dati pre-raccolti, ordinare i dati in più di tre categorie e scaricare e distribuire i loro modelli localmente o ospitarli nel cloud. Ciò significa che potresti allenare un sistema di base usando Teachable Machine e farlo funzionare su un sito Web o un'app. Google offre già un trainer AI senza codice chiamato Cloud AutoML , ma si tratta di uno strumento molto più professionale, con un ambito maggiore di personalizzazione, ridimensionamento e supporto clienti. APPRENDIMENTO AUTOMATICO RAPIDO E SPORCO Teachable Machine 2.0, al confronto, è veloce e sporco: è una rampa per i nuovi professionisti della ML e qualcosa che permetterà agli utenti di prototipare rapidamente una soluzione AI. Google osserva che Teachable Machine viene eseguito interamente sul computer dell'utente, il che significa che i dati di allenamento non lasciano mai il tuo dispositivo (una rassicurazione per coloro che sono preoccupati per la privacy). Negli anni trascorsi dall'ultima ondata di sistemi di apprendimento autom...
Continua a Leggere

Adobe Sneaks e la funzione di intelligenza artificiale AI che può dire quando un’immagine è stata manipolata

Adobe presenta in anteprima una funzione AI che può dire quando un'immagine è stata manipolata Tonnellate di intelligenza artificiale, audio e realtà aumentata in Adobe Sneaks Adobe sta presentando in anteprima una serie di funzionalità sperimentali che un giorno potrebbero arrivare alle sue app, tra cui diverse che utilizzano l'intelligenza artificiale per manipolare immagini e audio. Le funzionalità sono state rivelate durante l'evento Sneaks di Adobe ieri sera durante la conferenza annuale sulla creatività Max della società e quest'anno le funzionalità hanno fatto un uso intensivo della piattaforma AI Sensei di Adobe. Le anticipazioni sono app in cui app come Adobe Fresco e funzionalità come il riempimento consapevole del contenuto sono state visualizzate per la prima volta in anteprima, quindi ci sono buone probabilità che alcuni di questi strumenti possano apparire in un'app Creative Cloud vicino a te in futuro. Il comico John Mulaney ha ospitato l'evento quest'anno e ha servito come cavia per i ricercatori di Adobe per dimostrare le nuove funzionalità. Tra gli esperimenti c'era una funzione chiamata Go Figure , che traccia automaticamente il movimento di una persona e può tradurlo in animazioni veloci. Guarda i video qui sotto per vedere quali caratteristiche potrebbero valere la pena guardare avanti e quali dovrebbero farti rannicchiare nel timore del crescente potere dell'IA. Puoi anche leggere il blog di Adobe per un elenco completo delle funzionalità. A PROPOSITO DI FACE Da qualche parte lungo la strada per l'aggiunta di nuove potenti funzionalità AI che possono aprire percorsi di disinformazione, Adobe sta realizzando il proprio ruolo e la propria responsabilità nella gestione di queste funzionalità. About Face analizza i pixel di un'immagine, mostrando una mappa di calore di quelli che sono stati modificati, quindi rivela una probabilità che l'immagine possa essere stata manipolata. In questo momento, lo strumento è stato sviluppat...
Continua a Leggere

OpenAI GPT-2 dove testarla

OpenAI ha pubblicato l'intelligenza artificiale generatrice di testi che riteneva fosse troppo pericolosa per essere condivisa Il laboratorio afferma di aver visto "finora nessuna prova evidente di uso improprio" Il laboratorio di ricerca OpenAI ha rilasciato la versione completa di un sistema di intelligenza artificiale che genera testo che gli esperti hanno avvertito che potrebbe essere utilizzato per scopi dannosi. L'Istituto ha originariamente annunciato il sistema, GPT-2, nel febbraio di quest'anno , ma ha trattenuto la versione completa del programma per paura che sarebbe stato usato per diffondere notizie false, spam e disinformazione. Da allora ha rilasciato versioni più piccole e meno complesse di GPT-2 e ne ha studiato la ricezione. Altri hanno anche replicato il lavoro. In un post sul blog questa settimana, OpenAI ora afferma di non aver visto "nessuna prova evidente di un uso improprio" e di aver rilasciato il modello per intero. GPT-2 PUÒ SCRIVERE ARTICOLI, STORIE, POESIE E CODICI FALSI GPT-2 fa parte di una nuova generazione di sistemi di generazione di testi che hanno impressionato gli esperti con la loro capacità di generare testi coerenti da richieste minime. Il sistema è stato formato su otto milioni di documenti di testo estratti dal Web e risponde ai frammenti di testo forniti dagli utenti. Alimentagli un titolo falso, per esempio, e scriverà una notizia; dagli la prima riga di una poesia e fornirà un verso intero. È difficile comunicare esattamente quanto sia buono l'output di GPT-2, ma il modello produce spesso una scrittura misteriosamente convincente che spesso può dare l'apparenza di intelligenza (anche se questo non vuol dire che cosa sta facendo GPT-2 coinvolge qualsiasi cosa che riconosciamo come cognizione) . Gioca con il sistema abbastanza a lungo, però, e i suoi limiti diventano chiari. Soffre in particolare della sfida della coerenza a lungo termine; ad esempio, utilizzare i nomi e gli attributi dei personaggi in m...
Continua a Leggere

Metà dei posti di lavoro verranno sostituiti dall’intelligenza artificiale

5 lavori su 10 verranno sostituiti dall'IA? Immagina un centro città del futuro: non ci sono auto, taxi, autobus e camion. Ci saranno robot ma non molto lavoro. Nella città del futuro, tutti i veicoli sono stati sostituiti da baccelli autonomi: piccoli veicoli elettrici a guida autonoma. Possono essere adattati per il trasporto di passeggeri o merci, hanno una mappa di ogni strada, ogni incrocio e ogni ostacolo in città e si aggiornano reciprocamente sulle condizioni del traffico o sui potenziali blocchi. Sono completamente automatici. Non sono necessari semafori, rotonde o indicazioni stradali perché i pod non solo hanno una conoscenza completa della città ma anche, poiché comunicano tra loro, hanno una conoscenza precisa della posizione di ogni altro pod. Possono negoziare tra loro quando si tratta di chi va per primo a un incrocio o dove un pod si fonde nel traffico quando si allontana. Non ci saranno collisioni perché ogni pod coopera con i loro compagni pod. Baccelli passeggeri traghetti pendolari dalle stazioni ferroviarie ai loro uffici - almeno quelli rimasti - portano i bambini a scuola e i loro genitori al centro commerciale. I baccelli che trasportano merci portano il tuo negozio settimanale da un magazzino di supermercati fuori città e consegnano la posta. Dove sono le persone? Che cosa è successo in questa città automatizzata a tutte le persone che guidavano taxi, autobus e furgoni? Non sono più necessari. Che dire delle centinaia di giovani donne e uomini su biciclette e scooter che offrono pizze, hamburger e così via? Ridondante. E poiché ora ordini tutti i tuoi generi alimentari online (consegnati da un pod), non ci sono supermercati - né operatori di cassa, né scaffalatori - ei magazzini che li hanno sostituiti sono completamente automatizzati. Non ci sono auto private nel centro della città, quindi non ci sono restrizioni di parcheggio da applicare, nessuna violazione del traffico per perseguire, nessun guardiano del traffico. Negli uffi...
Continua a Leggere

la Cina vende droni autonomi letali

I militari statunitensi ammettono per la prima volta che la Cina vende droni autonomi letali Il segretario alla Difesa degli Stati Uniti Mark T. Esper ha definito la collaborazione con la Cina sull'intelligenza artificiale "un focus breve e miope sulle opportunità economiche" UU.S. Il segretario alla Difesa Mark T. Esper ha parlato per la prima volta oggi della vendita cinese di droni altamente autonomi sul mercato internazionale, mettendo in discussione la precedente posizione della Cina secondo cui i robot autonomi erano pericolosi e ponevano una " preoccupazione umanitaria ". "Mentre parliamo, il governo cinese sta già esportando alcuni dei suoi droni aerei militari più avanzati in Medio Oriente, mentre si prepara a esportare i suoi UAV stealth di prossima generazione [veicoli aerei senza equipaggio] quando verranno messi in linea", ha detto Esper durante una conferenza organizzata dalla National Security Commission of Artificial Intelligence. "Inoltre, i produttori di armi cinesi stanno vendendo droni pubblicizzati come capaci di piena autonomia, inclusa la capacità di condurre attacchi letali mirati." Questa è la prima volta che un alto funzionario statunitense parla della vendita cinese di droni autonomi letali, anche se si sospetta che le macchine siano state vendute ai paesi del Medio Oriente almeno dalla fine del 2018. I media statali cinesi hanno pubblicizzato la disponibilità di droni letali autonomi per mesi. La retorica evidenzia preoccupazione da parte dell'amministrazione circa le ambizioni militari cinesi dell'intelligenza artificiale, ed evidenzia il senso di immediatezza del DoD nell'affrontare come la Cina sta diffondendo la sua tecnologia autonoma in tutto il mondo. Due società cinesi sostenute da fondi governativi sono state ampiamente identificate come venditori di droni letali. Ziyan, che ha collaborato con il ministero cinese della pubblica sicurezza lo scorso anno, vende droni che possono essere equipaggiati con pistole o bombe.Ha anch...
Continua a Leggere

Ecco come funziona il sistema di riconoscimento facciale dell’esercito americano

Ecco come funziona il massiccio sistema di riconoscimento facciale dell'esercito americano I documenti ottenuti da OneZero mostrano come i militari acquisiscono dati biometrici in tutto il mondo OOver degli ultimi 15 anni, l'esercito degli Stati Uniti ha messo a punto una nuova aggiunta al suo arsenale. L'arma è dispiegata in tutto il mondo, in gran parte invisibile, e diventa ogni giorno più potente. Quell'arma è un vasto database, pieno di milioni di immagini di volti, iris, impronte digitali e dati sul DNA - un dragnet biometrico di chiunque sia entrato in contatto con l'esercito americano all'estero. I 7,4 milioni di identità nel database vanno dai sospetti terroristi nelle zone militari attive ai soldati alleati che si addestrano con le forze statunitensi. “Negare l'anonimato dei nostri avversari ci consente di focalizzare la nostra letalità. È come strappare la rete mimetica dalla discarica di munizioni nemiche ”, ha scritto Glenn Krizay, direttore della Defense Forensics and Biometrics Agency, nelle note ottenute da OneZero. La Defense Forensics and Biometrics Agency (DFBA) ha il compito di supervisionare il database, noto ufficialmente come sistema di informazione biometrica automatizzato (ABIS). DFBA e il suo database ABIS hanno ricevuto pochi controlli o pressioni dato il ruolo centrale che svolgono nelle operazioni di intelligence dell'esercito americano. Ma una presentazione e note appena ottenute scritte dal direttore del DFBA, Krizay, rivelano come l'organizzazione funziona e come l'identificazione biometrica è stata utilizzata per identificare cittadini non statunitensi sul campo di battaglia migliaia di volte nella sola prima metà del 2019. ABIS consente inoltre alle filiali militari di contrassegnare le persone di interesse, inserendole in una cosiddetta "Watch List biometricamente abilitata" (BEWL). Una volta contrassegnati, questi individui possono essere identificati attraverso sistemi di sorveglianza sui campi di battaglia, vicino ai...
Continua a Leggere

Trovare lavoro nella AI Intelligenza artificiale senza essere dei tecnici

Costruire una carriera nel mondo dell'IA senza background tecnico Ti sei svegliato una mattina per scoprire che il mondo intero parlava di intelligenza artificiale e apprendimento automatico? Dalle auto a guida autonoma ad Amazon che ti dicono cosa vuoi comprare prima di capire che sapevi di volerlo - l'IA, in particolare l'apprendimento automatico, si è insinuato in ogni parte della nostra vita. Questo nuovo mondo coraggioso di machine learning (ML) e automazione ha anche scatenato un ampio dibattito sul futuro del lavoro e sul ruolo che gli umani rivestiranno in esso, in particolare per quelle persone (come me) che non hanno un background tecnico. Come dirigente di una società in crescita della ML che ha una laurea in antropologia e pianificazione urbana, almeno una volta alla settimana mi viene chiesto come può una persona non tecnica mettersi in piedi e alla fine costruire una carriera nell'economia emergente dell'IA. Ecco i tre consigli che condivido con la gente: (1) Cerca Posizioni per addestrare le macchine L'intelligenza artificiale non nasce intelligente. I prodotti ML si affidano alle persone per addestrarlo su ciò che dovrebbe fare. Pensa a questo come un insegnante che insegna ai bambini in lingua inglese o che ti insegna come fare deadlift in palestra. Ad esempio, la società per cui lavoro, RoadBotics , applica l'apprendimento approfondito per aiutare i governi a disporre di dati di alta qualità sulle loro condizioni stradali. Sostanzialmente alimentiamo le immagini del nostro modello ML delle superfici stradali e genera una valutazione delle condizioni da 1 a 5 in base ai disagi presenti sulla strada in ogni immagine. In che modo il nostro modello ML è arrivato al punto in cui può prendere decisioni accurate e coerenti sulle condizioni di qualsiasi fondo stradale? La gente doveva addestrarlo! Il rigoroso regime di allenamento consiste in dozzine di persone che guardano milioni di immagini su una piattaforma basata sul web e 'dipingono' o etiche...
Continua a Leggere

Il software di riconoscimento delle emozioni AI di Amazon confonde le espressioni dei sentimenti

I volti delle persone dicono molto meno delle loro emozioni rispetto a quanto pensano le aziende NelAdagosto, Amazon ha annunciato di aver migliorato la "precisione per il rilevamento delle emozioni" nel suo software di riconoscimento facciale. La tecnologia non solo ha potuto rilevare meglio sette emozioni (felici, tristi, arrabbiate, sorprese, disgustate, calme e confuse) spiegate dall'azienda, ma ha potuto rilevare per la prima volta un'ottava emozione: la paura. Le principali aziende tecnologiche come Microsoft e Apple, insieme a start-up come Kairos e Affectiva, vendono prodotti simili per rilevare le emozioni . Secondo una stima , questa categoria di servizi relativamente nuova dovrebbe diventare un settore da 25 miliardi di dollari entro il 2023. La tecnologia che legge le emozioni basandosi solo sulle espressioni facciali sarebbe una svolta sorprendente. Ad esempio, potrebbe consentire agli esperti di marketing di rilevare le reazioni degli spettatori a film horror, software per auto integrato per valutare se un guidatore è arrabbiato o assonnato e le aziende possono eliminare candidati di lavoro annoiati o non interessati. Potrebbe anche aiutare i bambini con autismo a imparare a riconoscere le emozioni degli altri. Ma negli ultimi mesi, gli scienziati hanno sollevato notevoli dubbi sul fatto che usare i volti per leggere le emozioni sia persino possibile. Il problema non è che la tecnologia come Amazon Rekognition non riesce a leggere i dettagli dei volti. È che i volti non sono necessariamente segnali accurati di emozioni. A luglio Lisa Feldman Barrett, professore di psicologia alla Northeastern University, e i suoi colleghi hanno pubblicato una recensione di oltre 1.000 studi che hanno concluso che molti sviluppi nell'intelligenza artificiale e nella visione al computer che mirano a rilevare le emozioni sono sbagliati. E il mese scorso, un professore di informatica all'Università della California del Sud di nome Jonathan Gratch e i suoi colleghi han...
Continua a Leggere

OpenAI il cubo di Rubik meno intelligenza di quello che si crede

Cubo di Rubik? No, la robotica e l'IA non ci sono ancora Parliamo della mano robotica abile OpenAI che attualmente sta ricevendo molta attenzione. Questo è un post di vaccinazione hype . In altre parole, proverò a depredare la folla per il recente sviluppo della robotica. Concretamente, OpenAI ha ottenuto risultati piuttosto sorprendenti imparando a risolvere il cubo di Rubik con una mano robotica. Ignorando i loro potenti macchinari pubblicitari, quanto sono davvero sorprendenti i risultati? Che cosa è tutto questo trambusto? Il risultato sorprendente non è risolvere il cubo di Rubik, ovviamente. È la capacità di gestire il cubo di Rubik con un sistema robotico relativamente non banale. Stiamo parlando della mano di Shadow Dxterous serie E : [1] In realtà la mano è la stessa mano dell'anno scorso usata per giocare un po 'con questo cubo: [1] Quindi, alla fine, stiamo ancora parlando di cubi rotanti. La difficoltà di controllare la mano è che ha 20 gradi di libertà. Inoltre, tenere il cubo di Rubik in una mano e risolverlo è molto difficile, anche per un essere umano per quella materia (posso immaginare però che sia abbastanza difficile controllare 2 mani robotiche allo stesso tempo, ragioni per cui verrà dopo) . Esistono molti ostacoli alla risoluzione di questo problema, come la stima della posa della mano, la traccia del cubo, l'apprendimento della rotazione del cubo e così via. La cosa impressionante è che sono stati in grado di farlo su un sistema reale basato sull'input della telecamera dopo aver addestrato la politica di controllo nella simulazione. Inoltre, la mano è stata in grado di adattarsi a perturbazioni improvvise, ad esempio giraffa giocattolo toccandola mentre ruotava il cubo. In poche parole, si potrebbe raggruppare il loro approccio in 3 parti importanti: visione artificiale (percezione), apprendimento di rinforzo e randomizzazione del dominio . Randomizzazione adattiva del dominio L'apprendimento per rinforzo funziona bene quando pu...
Continua a Leggere

Gli occhi bionici collegati a Internet

Gli occhi bionici collegati a Internet cambieranno la società Speculazione sull'ultimo indossabile a un passo dalle protesi neurali invasive È passato solo poco più di un decennio dal lancio del primo iPhone, ma i dispositivi mobili hanno già avuto un impatto enorme come nei seguenti casi. Ha distrutto intere industrie portando a società per un valore di miliardi di dollari come Uber e il suo rifacimento dei trasporti. Ha svolto un ruolo chiave nel coordinamento e nella condivisione di immagini e video in movimenti politici come la Rivoluzione verde iraniana. Dare forma alla crescita e alla struttura di intere società, come in Cina, India o Africa, dove le aree meno sviluppate aggirano il normale sviluppo di Internet cablato a favore del salto diretto alla trasmissione dei dati attraverso le torri cellulari. La crescita esponenziale degli smartphone è stata integrata da una crescita ancora più impressionante di dispositivi indossabili come gli smartwatch. Man mano che la tecnologia di elaborazione diventa più potente, più economica e più piccola, possiamo aspettarci che i dispositivi indossabili diventino ancora più onnipresenti nella nostra vita quotidiana e svaniscano in modo da non essere più visibili. Tuttavia, giocheranno una parte ancora più grande della nostra vita. Fino a che punto questo continuerà? Credo che l'umanità avrà presto un intervento chirurgico discrezionale per sostituire i nostri occhi con occhi bionici collegati a Internet. Qui speculerò sulle affascinanti implicazioni di come gli occhi bionici influenzeranno la vita quotidiana e la società. Dove gli occhi bionici si adattano alla progressione della tecnologia Lenti a contatto intelligenti Poiché l'elettronica flessibile, le batterie più efficienti e più piccole e la stampa 3D aumentano con raffinatezza, sarebbe naturale che le lenti a contatto intelligenti apparissero prima agli occhi bionici poiché potrebbero essere più tecnologicamente fattibili, più economiche e molto meno invasive. In...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi