Home / Archive by category "AI tecnologia"

AI tecnologia

Adobe Sneaks e la funzione di intelligenza artificiale AI che può dire quando un’immagine è stata manipolata

Adobe presenta in anteprima una funzione AI che può dire quando un'immagine è stata manipolata Tonnellate di intelligenza artificiale, audio e realtà aumentata in Adobe Sneaks Adobe sta presentando in anteprima una serie di funzionalità sperimentali che un giorno potrebbero arrivare alle sue app, tra cui diverse che utilizzano l'intelligenza artificiale per manipolare immagini e audio. Le funzionalità sono state rivelate durante l'evento Sneaks di Adobe ieri sera durante la conferenza annuale sulla creatività Max della società e quest'anno le funzionalità hanno fatto un uso intensivo della piattaforma AI Sensei di Adobe. Le anticipazioni sono app in cui app come Adobe Fresco e funzionalità come il riempimento consapevole del contenuto sono state visualizzate per la prima volta in anteprima, quindi ci sono buone probabilità che alcuni di questi strumenti possano apparire in un'app Creative Cloud vicino a te in futuro. Il comico John Mulaney ha ospitato l'evento quest'anno e ha servito come cavia per i ricercatori di Adobe per dimostrare le nuove funzionalità. Tra gli esperimenti c'era una funzione chiamata Go Figure , che traccia automaticamente il movimento di una persona e può tradurlo in animazioni veloci. Guarda i video qui sotto per vedere quali caratteristiche potrebbero valere la pena guardare avanti e quali dovrebbero farti rannicchiare nel timore del crescente potere dell'IA. Puoi anche leggere il blog di Adobe per un elenco completo delle funzionalità. A PROPOSITO DI FACE Da qualche parte lungo la strada per l'aggiunta di nuove potenti funzionalità AI che possono aprire percorsi di disinformazione, Adobe sta realizzando il proprio ruolo e la propria responsabilità nella gestione di queste funzionalità. About Face analizza i pixel di un'immagine, mostrando una mappa di calore di quelli che sono stati modificati, quindi rivela una probabilità che l'immagine possa essere stata manipolata. In questo momento, lo strumento è stato sviluppat...
Continua a Leggere

OpenAI GPT-2 dove testarla

OpenAI ha pubblicato l'intelligenza artificiale generatrice di testi che riteneva fosse troppo pericolosa per essere condivisa Il laboratorio afferma di aver visto "finora nessuna prova evidente di uso improprio" Il laboratorio di ricerca OpenAI ha rilasciato la versione completa di un sistema di intelligenza artificiale che genera testo che gli esperti hanno avvertito che potrebbe essere utilizzato per scopi dannosi. L'Istituto ha originariamente annunciato il sistema, GPT-2, nel febbraio di quest'anno , ma ha trattenuto la versione completa del programma per paura che sarebbe stato usato per diffondere notizie false, spam e disinformazione. Da allora ha rilasciato versioni più piccole e meno complesse di GPT-2 e ne ha studiato la ricezione. Altri hanno anche replicato il lavoro. In un post sul blog questa settimana, OpenAI ora afferma di non aver visto "nessuna prova evidente di un uso improprio" e di aver rilasciato il modello per intero. GPT-2 PUÒ SCRIVERE ARTICOLI, STORIE, POESIE E CODICI FALSI GPT-2 fa parte di una nuova generazione di sistemi di generazione di testi che hanno impressionato gli esperti con la loro capacità di generare testi coerenti da richieste minime. Il sistema è stato formato su otto milioni di documenti di testo estratti dal Web e risponde ai frammenti di testo forniti dagli utenti. Alimentagli un titolo falso, per esempio, e scriverà una notizia; dagli la prima riga di una poesia e fornirà un verso intero. È difficile comunicare esattamente quanto sia buono l'output di GPT-2, ma il modello produce spesso una scrittura misteriosamente convincente che spesso può dare l'apparenza di intelligenza (anche se questo non vuol dire che cosa sta facendo GPT-2 coinvolge qualsiasi cosa che riconosciamo come cognizione) . Gioca con il sistema abbastanza a lungo, però, e i suoi limiti diventano chiari. Soffre in particolare della sfida della coerenza a lungo termine; ad esempio, utilizzare i nomi e gli attributi dei personaggi in m...
Continua a Leggere

Il software di riconoscimento delle emozioni AI di Amazon confonde le espressioni dei sentimenti

I volti delle persone dicono molto meno delle loro emozioni rispetto a quanto pensano le aziende NelAdagosto, Amazon ha annunciato di aver migliorato la "precisione per il rilevamento delle emozioni" nel suo software di riconoscimento facciale. La tecnologia non solo ha potuto rilevare meglio sette emozioni (felici, tristi, arrabbiate, sorprese, disgustate, calme e confuse) spiegate dall'azienda, ma ha potuto rilevare per la prima volta un'ottava emozione: la paura. Le principali aziende tecnologiche come Microsoft e Apple, insieme a start-up come Kairos e Affectiva, vendono prodotti simili per rilevare le emozioni . Secondo una stima , questa categoria di servizi relativamente nuova dovrebbe diventare un settore da 25 miliardi di dollari entro il 2023. La tecnologia che legge le emozioni basandosi solo sulle espressioni facciali sarebbe una svolta sorprendente. Ad esempio, potrebbe consentire agli esperti di marketing di rilevare le reazioni degli spettatori a film horror, software per auto integrato per valutare se un guidatore è arrabbiato o assonnato e le aziende possono eliminare candidati di lavoro annoiati o non interessati. Potrebbe anche aiutare i bambini con autismo a imparare a riconoscere le emozioni degli altri. Ma negli ultimi mesi, gli scienziati hanno sollevato notevoli dubbi sul fatto che usare i volti per leggere le emozioni sia persino possibile. Il problema non è che la tecnologia come Amazon Rekognition non riesce a leggere i dettagli dei volti. È che i volti non sono necessariamente segnali accurati di emozioni. A luglio Lisa Feldman Barrett, professore di psicologia alla Northeastern University, e i suoi colleghi hanno pubblicato una recensione di oltre 1.000 studi che hanno concluso che molti sviluppi nell'intelligenza artificiale e nella visione al computer che mirano a rilevare le emozioni sono sbagliati. E il mese scorso, un professore di informatica all'Università della California del Sud di nome Jonathan Gratch e i suoi colleghi han...
Continua a Leggere

OpenAI il cubo di Rubik meno intelligenza di quello che si crede

Cubo di Rubik? No, la robotica e l'IA non ci sono ancora Parliamo della mano robotica abile OpenAI che attualmente sta ricevendo molta attenzione. Questo è un post di vaccinazione hype . In altre parole, proverò a depredare la folla per il recente sviluppo della robotica. Concretamente, OpenAI ha ottenuto risultati piuttosto sorprendenti imparando a risolvere il cubo di Rubik con una mano robotica. Ignorando i loro potenti macchinari pubblicitari, quanto sono davvero sorprendenti i risultati? Che cosa è tutto questo trambusto? Il risultato sorprendente non è risolvere il cubo di Rubik, ovviamente. È la capacità di gestire il cubo di Rubik con un sistema robotico relativamente non banale. Stiamo parlando della mano di Shadow Dxterous serie E : [1] In realtà la mano è la stessa mano dell'anno scorso usata per giocare un po 'con questo cubo: [1] Quindi, alla fine, stiamo ancora parlando di cubi rotanti. La difficoltà di controllare la mano è che ha 20 gradi di libertà. Inoltre, tenere il cubo di Rubik in una mano e risolverlo è molto difficile, anche per un essere umano per quella materia (posso immaginare però che sia abbastanza difficile controllare 2 mani robotiche allo stesso tempo, ragioni per cui verrà dopo) . Esistono molti ostacoli alla risoluzione di questo problema, come la stima della posa della mano, la traccia del cubo, l'apprendimento della rotazione del cubo e così via. La cosa impressionante è che sono stati in grado di farlo su un sistema reale basato sull'input della telecamera dopo aver addestrato la politica di controllo nella simulazione. Inoltre, la mano è stata in grado di adattarsi a perturbazioni improvvise, ad esempio giraffa giocattolo toccandola mentre ruotava il cubo. In poche parole, si potrebbe raggruppare il loro approccio in 3 parti importanti: visione artificiale (percezione), apprendimento di rinforzo e randomizzazione del dominio . Randomizzazione adattiva del dominio L'apprendimento per rinforzo funziona bene quando pu...
Continua a Leggere

Google ha appena staccato la spina della sua fotocamera Clips era basata sull’intelligenza artificiale di Google

La fotocamera basata su AI di Google era destinata a fallire Un programma non può dire cosa sia "interessante" Google ha appena staccato la spina della sua fotocamera Clip, un piccolo dispositivo che avrebbe dovuto catturare le foto dei piccoli frammenti della vostra giornata che altrimenti scivolare da. Forse scattava una foto del tuo bambino che sorrideva mentre andavi a prenderli, o il tuo cane che scodinzolava mentre camminavi sulla porta. Ma quando i revisori e i consumatori hanno messo le mani sul dispositivo, quella fiaba non ha funzionato. “Indossavo la macchina fotografica sul colletto della camicia mentre giocavo con mia figlia sperando che catturasse tutti i suoi sorrisi a 7 settimane. Accesso all'app, niente. Sono stato schiacciato ", ha scritto una recensione sul sito web di Best Buy. Google ha promesso di utilizzare l'IA per catturare momenti interessanti della nostra vita, e questo era il problema esatto: Non esiste una definizione di interessante. Come utente, hai dovuto dedicare molto tempo a mostrare a Google di cosa volevi che facesse le foto. L' anno scorso Cherlynn Low di Engadget ha scritto di aver addestrato l'IA dei Clips sulla sua storia di Google Foto, apparentemente un diario delle sue preferenze visive, e ancora non riusciva a farlo fotografare in modo affidabile il suo cane o i suoi amici. Sappiamo cosa l'IA è brava a fare: prendere una decisione con una risposta chiaramente corretta. Se c'è un cane in un'immagine, Google può identificarlo. Il cane è un dato di fatto. Ma per Google capire quando il tuo cane sta facendo qualcosa che vuoi vedere di nuovo, come la faccia colpevole che fa dopo aver scavato nella spazzatura, ha bisogno di una tonnellata di informazioni esterne che non saranno le stesse per ogni utente. In altre parole, l'IA non funziona quando deve quantificare qualcosa di qualitativo. Ciò dipende dal fatto che una persona sia affidabile o meno che una foto sia buona o cattiva. “Fondamentalmente, stiamo cercando di insegn...
Continua a Leggere

Dactyl il robot OpenAI basato sull’intelligenza artificiale ha imparato come risolvere il cubo di Rubik con una sola mano

Il robot OpenAI basato sull'intelligenza artificiale ha imparato come risolvere il cubo di Rubik con una sola mano L'organizzazione di ricerca sull'intelligenza artificiale OpenAI ha raggiunto una nuova pietra miliare nella sua ricerca per costruire robot di autoapprendimento per scopi generali. La divisione robotica del gruppo afferma che Dactyl, la sua mano robotica umanoide sviluppata per la prima volta l'anno scorso , ha imparato a risolvere il cubo di Rubik con una sola mano. OpenAI vede l'impresa come un balzo in avanti sia per la destrezza delle appendici robotiche sia per il proprio software di intelligenza artificiale, che consente a Dactyl di apprendere nuovi compiti utilizzando simulazioni virtuali prima che venga presentata una vera sfida fisica da superare. In un video dimostrativo che mostra il nuovo talento di Dactyl, possiamo vedere la mano robotica farsi strada verso un cubo completo risolversi con manovre goffe ma accurate. Ci vogliono molti minuti, ma Dactyl è finalmente in grado di risolvere il puzzle. È in qualche modo inquietante vedere in azione, anche se solo perché i movimenti sembrano notevolmente meno fluidi di quelli umani e particolarmente sconnessi se confrontati con la velocità accecante e la destrezza cruda in mostra quando un speedcuber umano risolve il cubo in pochi secondi . Ma per OpenAI, il successo di Dactyl porta un passo avanti verso un obiettivo molto ricercato per le più ampie industrie dell'IA e della robotica: un robot che può imparare a svolgere una varietà di compiti nel mondo reale, senza dover allenarsi per mesi o anni tempo del mondo reale e senza la necessità di essere programmati in modo specifico. “Molti robot possono risolvere i cubi di Rubik molto velocemente. La differenza importante tra quello che hanno fatto lì e quello che stiamo facendo qui è che quei robot sono costruiti appositamente per loro ", afferma Peter Welinder, ricercatore e capo robotico di OpenAI. “Ovviamente non è possibile utili...
Continua a Leggere

Ad OpenAI mentre addestravano gli agenti di intelligenza artificiale a giocare a nascondino sono rimasti scioccati da ciò che hanno imparato

Gli agenti addestrati OpenAI in un semplice gioco di nascondino e hanno appreso molte altre abilità diverse nel processo. La concorrenza è una delle dinamiche socio-economiche che ha influenzato le nostre evoluzioni come specie. La grande quantità di complessità e diversità sulla Terra si è evoluta a causa della coevoluzione e della competizione tra organismi, diretta dalla selezione naturale. Competendo contro una parte diversa, siamo costantemente costretti a migliorare le nostre conoscenze e abilità su una materia specifica. I recenti sviluppi nell'intelligenza artificiale (AI) hanno iniziato a sfruttare alcuni dei principi della concorrenza per influenzare i comportamenti di apprendimento negli agenti dell'IA. In particolare, il campo dell'apprendimento di rinforzo multi-agente (MARL) è stato fortemente influenzato dalle dinamiche competitive e teoriche del gioco. Recentemente, i ricercatori di OpenAI hanno iniziato addestrando alcuni agenti di intelligenza artificiale in un semplice gioco di nascondino e saranno scioccati da alcuni dei comportamenti sviluppati dagli agenti in modo organico.affascinante documento di ricerca appena pubblicato . L'apprendimento tramite competizione è uno dei paradigmi emergenti nell'intelligenza artificiale che ricorda fatalmente come la nostra conoscenza si evolve come specie umana. Dato che siamo bambini, sviluppiamo nuove conoscenze esplorando l'ambiente circostante e interagendo con altre persone, a volte in modo collaborativo, a volte secondo modelli competitivi. Questa dinamica contrasta con il modo in cui progettiamo oggi i sistemi di intelligenza artificiale. Mentre i metodi di apprendimento supervisionato rimangono il paradigma dominante nell'intelligenza artificiale, è relativamente poco pratico applicarlo a molte situazioni del mondo reale. Ciò è ancora più accentuato negli ambienti in cui gli agenti devono interagire con oggetti fisici in un ambiente relativamente sconosciuto. In tali contesti, è più naturale ...
Continua a Leggere

Il migliore altoparlante intelligente AMAZON ECHO STUDIO contro Apple HomePod contro Google Home Max contro Sonos One contro Amazon Echo (3a generazione) contro Sonos Move contro Symfonisk di Ikea

Come i nuovi Echo di Amazon si confrontano con altri altoparlanti intelligenti Amazon vs Apple vs Google vs Sonos Questa settimana Amazon ha introdotto due nuovi altoparlanti intelligenti nella valanga di annunci al suo evento hardware dell'autunno 2019 di questa settimana: un Echo di terza generazione e quello che sostiene sia il suo miglior diffusore, Echo Studio . Pionieristico di Amazon con l'originale Echo, il mercato degli altoparlanti intelligenti ha ora una manciata di concorrenti tra cui scegliere. Ma come si confrontano i nuovi modelli di Amazon? AMAZON ECHO STUDIO Se vuoi il miglior altoparlante Echo per la musica, Echo Studio da 199,99 $ è quello che Amazon vuole che tu acquisti. Ha cinque driver - un tweeter da 1 pollice, tre altoparlanti midrange da 2 pollici e un woofer da 5,25 pollici - che dovrebbero essere in grado di mostrare Amazon Music HD, il nuovo livello di streaming musicale di Amazon che offre streaming senza perdite. Supporta anche "audio 3D" per le poche tracce che lo supportano, utilizzando formati come Dolby Atmos e Sony 360 Reality Audio. Una novità della gamma Echo (ma non dei concorrenti di Amazon) è la capacità di Echo Studio di ottimizzare automaticamente l'output per la stanza in cui si trova. Come Echo Studio, Echo Studio è in grado di riprodurre musica dalla maggior parte dei popolari servizi musicali. Il mio collega Dan Seifert ha avuto una sessione di ascolto privato e ha detto che Echo Studio "sfiderà facilmente" altri altoparlanti intelligenti di fascia alta. E poiché ha un prezzo inferiore rispetto a molti dei suoi concorrenti, "dovrebbe far sì che Sonos, Apple e Google si siedano e ascoltino". Puoi preordinare Echo Studio oggi e Amazon afferma che sarà disponibile il 7 novembre. Amazon Echo Studio Ad un prezzo di $ 199, Sonos One è un concorrente diretto del nuovo Echo Studio di Amazon. Tuttavia, mentre Echo Studio è un affare solo per Alexa, Sonos One ti dà molta più libertà, con la possibi...
Continua a Leggere

Amazon Echo 3 terza generazione

Amazon annuncia lo smart speaker Echo di terza generazione Oggi Amazon sta introducendo una nuova versione del suo principale altoparlante intelligente Echo. L'eco di terza generazione ha migliorato la qualità del suono grazie ai driver al neodimio - presi dall'esistente Echo Plus - e un woofer da tre pollici. Amazon afferma che "il basso è più forte" e medi e alti sono più chiari. Il design rivestito in tessuto è familiare, ma ora è disponibile in un nuovo colore "blu crepuscolo". L'eco del 2019 costa gli stessi $ 99,99 di prima e i preordini iniziano oggi. Il vicepresidente hardware Amazon Dave Limp ha posizionato il nuovo Echo come un ottimo modo per ascoltare Amazon Music HD, il nuovo livello di streaming senza perdita di qualità del servizio musicale in abbonamento dell'azienda. Ma il normale Echo è arrivato accanto all'annuncio di un nuovo, premium Echo Studio speaker con le migliori prestazioni degli altoparlanti che Amazon abbia mai offerto. L'ultimo importante aggiornamento di Echo si è verificato nell'ottobre 2017 quando Amazon ha presentato il dispositivo di seconda generazione ricoperto di stoffa.
Continua a Leggere

Amazon Echo Frames: gli occhiali intelligenti Alexa

Anteprima di Amazon Echo Frames: provare gli occhiali intelligenti Alexa Abbiamo appena trascorso un po 'di tempo con i primi occhiali intelligenti di Amazon, Echo Frames, presso la sede centrale di Seattle. Amazon sta posizionando gli occhiali come l'ultimo prodotto take-Alexa-ovunque, ma sta anche cercando di bilanciare quel tono con la privacy: c'è un pulsante sugli occhiali per disabilitare i suoi microfoni, e gli Echo Frames non hanno alcun tipo di fotocamera. Dato che la società li considera un prodotto di "primo giorno" per gli appassionati di tecnologia, alla fine saranno disponibili su invito per $ 179,99 . Amazon afferma che i clienti saranno in grado di ottenerli con lenti graduate o anche con occhiali da sole. Ma spetta a te ottenere quelli dal tuo ottico locale. Le cornici non possono essere ordinate come prescrizione da Amazon. Le montature Echo sono progettate per essere discrete e per apparire come il tuo paio base di occhiali con montatura spessa da subito. Gli steli su ciascun lato sono notevolmente spessi, tuttavia. Anche così, si sentono molto leggeri e comodi quando sono in testa. Amazon afferma che gli Echo Frames pesano 31 grammi. Sono costruiti in "TR-90, fibra di carbonio e titanio", secondo Amazon, con punte in acetato che possono essere regolate dagli ottici. Gli occhiali si accoppiano al tuo telefono Android e possono leggere le notifiche, effettuare chiamate e riprodurre audio, inclusi musica e podcast. Puoi anche chiedere ad Alexa i dettagli del tuo calendario, le notizie, il tempo e le solite cose che ti aspetti. Un filtro "VIP" consentirà agli utenti di scegliere quali notifiche vogliono leggere ad alta voce e quali dovrebbero rimanere solo sul telefono per dopo. Tuttavia, Amazon nota che iOS non è supportato questa volta, tralasciando completamente i proprietari di iPhone. I diffusori direzionali (ce ne sono due in ogni tempio) erano difficili da ascoltare nell'area dimostrativa di Amazon, ma sono arrivati ​​chiari al ma...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi