Home / Archive by category "Programmazione"

Programmazione

Le piattaforme LOW CODE senza codice possono rappresentare una minaccia per gli sviluppatori nel mondo post-COVID?

Le piattaforme senza codice possono rappresentare una minaccia per gli sviluppatori nel mondo post-COVID? Come le aziende possono attrarre e trattenere i talenti giusti nella scienza dei dati La pandemia di COVID-19 non ha solo sconvolto le aziende e la loro continuità, ma ha anche sfidato il funzionamento centrale delle aziende. Con le aziende che cercano di creare applicazioni per migliorare i loro processi e migliorare l'esperienza del cliente, molti si affidano a piattaforme low-code o no-code a causa della loro incapacità di assumere programmatori, sviluppatori e ingegneri software esperti per creare applicazioni, in particolare start-up e piccole imprese. Questa pandemia ha portato a un effetto a catena sulla forza lavoro in cui milioni di impiegati lavorano ora in remoto per mantenere le distanze sociali. Con un minor numero di sviluppatori e programmatori con cui lavorare, molte aziende, comprese quelle più grandi, hanno faticato a finire i progetti entro una scadenza. Ciò ha spinto nuovamente le aziende ad adottare queste semplici piattaforme plug and play che aiutano gli sviluppatori e altri dipendenti ad accelerare i flussi di lavoro. Inoltre, per rimanere rilevanti in questo panorama competitivo, le aziende stanno usando l'intelligenza artificiale per creare software, il che porta ancora una volta l'urgenza della democratizzazione dello sviluppo di applicazioni, in cui persone non tecniche possono unirsi per costruire applicazioni. Ciò, a sua volta, consente al gruppo tecnico di base di lavorare su progetti più critici che migliorerebbero i profitti delle aziende. Gartner definisce un ruolo - sviluppatore di cittadini - in cui chiunque può creare un'applicazione software per le aziende utilizzando "l'ambiente di sviluppo e runtime sanzionato dall'IT aziendale". Parallelamente, molte aziende e operatori sanitari hanno iniziato a sviluppare app per offrire i loro servizi in questa crisi e piattaforme a basso codice con le sue capacità possono ...
Continua a Leggere

Silq il primo linguaggio di programmazione di alto livello per computer quantistici

SCOPRI SILQ - IL NUOVO LINGUAGGIO DI PROGRAMMAZIONE DI ALTO LIVELLO PER I COMPUTER QUANTISTICI Di recente, gli sviluppatori dell'ETH di Zurigo, in Svizzera, hanno introdotto il primo linguaggio di programmazione di alto livello per computer quantistici , noto come Silq . Il linguaggio affronta varie sfide dei linguaggi quantistici , come il codice non intuitivo e disordinato, supportando il calcolo automatico e sicuro. Per ottenere un vantaggio rispetto agli algoritmi tradizionali, i ricercatori hanno lavorato su computer e algoritmi quantistici per alcuni decenni. Dietro la lingua Silq è un linguaggio di programmazione di alto livello per l'informatica quantistica progettato per estrarre dai dettagli di implementazione di basso livello degli algoritmi quantistici. La novità tecnica di questo linguaggio è un sistema di tipo quantistico che cattura importanti aspetti dei calcoli quantistici e consente il calcolo sicuro e automatico, che è una sfida fondamentale nei linguaggi quantistici esistenti. Secondo gli sviluppatori, Silq è il primo linguaggio quantico con un forte sistema di tipo statico a fornire una semantica intuitiva, ovvero se un tipo di programma verifica, la sua semantica segue una ricetta intuitiva che semplicemente abbassa valori temporanei. Questo linguaggio consente di esprimere algoritmi quantistici in modo più sicuro e conciso rispetto ai linguaggi di programmazione quantistica esistenti. Perché usare Silq I calcoli quantistici producono spesso valori temporanei e la rimozione di tali valori dalla considerazione induce una misurazione implicita a far collassare lo stato dell'informatica quantistica. Per rimuovere i valori temporanei dalla considerazione senza indurre una misurazione implicita, gli algoritmi nelle lingue esistenti devono decomprimere esplicitamente tutti i valori temporanei. Ciò si traduce in un divario significativo dai linguaggi quantistici a quelli classici ed è un grande ostacolo che impedisce l...
Continua a Leggere

Motion2Vec l’algoritmo che impara dai video e simula in tempo reale il robot chirurgo

CHIRURGHI ROBOT CHE IMPARANO DAI VIDEO L'apprendimento tramite imitazione è naturale per l'uomo. Nell'era di Internet, quasi tutte le abilità possono essere apprese guardando i video online. Tuttavia, insegnare alle macchine a imparare dall'imitazione è stato un obiettivo di vecchia data dei ricercatori delle macchine. Per studiare la capacità di replicare questa capacità su macchine, Google, i laboratori Intel AI e l'Università della California, Berkeley ha collaborato per presentare Motion2Vec, un algoritmo che apprende rappresentazioni incentrate sul movimento delle abilità di manipolazione da dimostrazioni video per l'apprendimento delle imitazioni. La rappresentazione appresa è stata quindi applicata alla segmentazione della sutura chirurgica e pone l'imitazione in simulazione e reale sul robot da Vinci. Panoramica di Motion2Vec Per la dimostrazione del modello Motion2Vec, i ricercatori hanno scelto il robot Da Vinci per le attività chirurgiche. Ad esempio, un video di sutura può essere segmentato dal modello in base ai loro timestamp in segmenti di azione come l'inserimento dell'ago, l'estrazione dell'ago, il trasferimento dell'ago e così via. Questo tipo di decomposizione può essere visto nei modelli utilizzati per il riconoscimento vocale. Il modello Motion2Vec accumula tutti i segmenti dai fotogrammi video in uno spazio di incorporamento in modo semi-supervisionato. Per ottenere pseudo-etichette per l'addestramento senza etichetta attraverso l'esecuzione di inferenze su RNN che viene addestrato iterativamente per una determinata parametrizzazione della rete siamese, che è stata utilizzata raccogliere segmenti di azione e immagini simili con le stesse etichette discrete in uno spazio di incorporamento. L'obiettivo principale di questo lavoro è quello di estrarre rappresentazioni distrutte dalle dimostrazioni video in modo semi-supervisionato per la segmentazione e l'imitazione. Lo spazio di incorporamento profondo riflette gli att...
Continua a Leggere

Penrose lo strumento in grado di trasformare le equazioni in illustrazioni

I ricercatori sviluppano lo strumento in grado di trasformare le equazioni in illustrazioni I ricercatori della Carnegie Mellon University hanno creato uno strumento in grado di trasformare le astrazioni della matematica in illustrazioni e diagrammi tramite software. Il processo funziona da parte degli utenti digitando espressioni matematiche ordinarie che vengono poi trasformate in illustrazioni dal software. Uno dei principali sviluppi di questo progetto è che le espressioni non devono essere funzioni di base, come nel caso di una calcolatrice grafica. Al contrario, possono essere relazioni complesse provenienti da vari campi all'interno della matematica. Penrose Lo strumento è stato chiamato Penrose dai ricercatori, ispirato al matematico e fisico Roger Penrose, noto per l'utilizzo di idee matematiche e scientifiche complesse attraverso diagrammi e disegni. Penrose sarà presentato dai ricercatori alla conferenza SIGGRAPH 2020 su computer grafica e tecniche interattive. La conferenza si svolgerà praticamente quest'anno a causa della pandemia di COVID-19. Keenan Crane è un assistente professore di informatica e robotica. "Alcuni matematici hanno il talento per disegnare meravigliosamente diagrammi a mano, ma svaniscono non appena la lavagna viene cancellata", ha detto Crane. "Vogliamo rendere questo potere espressivo disponibile a chiunque." I diagrammi non sono usati tanto nella comunicazione tecnica, a causa della quantità richiesta di lavoro altamente qualificato e noioso necessario per produrli. Per ovviare a questo, lo strumento Penrose consente agli esperti di codificare i passaggi nel sistema e altri utenti possono quindi accedervi utilizzando un linguaggio matematico. Tutto ciò significa che il computer sta svolgendo la maggior parte del lavoro. Katherine Ye è una studentessa di dottorato nel dipartimento di informatica. "Abbiamo iniziato chiedendo: 'In che modo le persone traducono idee matematiche in immagini nella loro te...
Continua a Leggere

GUIDA PRATICA ALL’IMPLEMENTAZIONE DI ALEXNET CON TELECAMERE PER LA CLASSIFICAZIONE DI IMMAGINI MULTI-CLASSE

La visione del computer viene applicata in una varietà di applicazioni in tutti i domini e grazie al deep learning che fornisce continuamente nuovi framework da utilizzare nello spazio di visione del computer. Ad oggi, ci possono essere più di centinaia di modelli di apprendimento profondo che hanno dimostrato le loro capacità nel gestire milioni di immagini e produrre risultati accurati. Ogni modello di apprendimento profondo ha un'architettura specifica ed è addestrato in quel modo specifico. Le reti neurali convoluzionali sono uno dei popolari modelli di deep learning che hanno una vasta gamma di applicazioni nel campo della visione artificiale. Esiste una varietà di architetture della rete neurale convoluzionale (CNN). AlexNet è una delle varianti della CNN che viene anche definita rete neurale convoluzionale profonda. In questo articolo, discuteremo dell'architettura e dell'implementazione di AlexNet utilizzando la libreria Keras senza utilizzare l'approccio di apprendimento del trasferimento. Alla fine, valuteremo le prestazioni di questo modello in classifica. AlexNet AlexNet è un modello di apprendimento profondo ed è una variante della rete neurale convoluzionale. Questo modello è stato proposto da Alex Krizhevsky come suo lavoro di ricerca . Il suo lavoro è stato supervisionato da Geoffery E. Hinton, un nome noto nel campo della ricerca sull'apprendimento profondo. Alex Krizhevsky ha partecipato alla Sfida di riconoscimento visivo su larga scala ImageNet (ILSVRC2012) nel 2012, dove ha utilizzato il modello AlexNet e ha ottenuto un errore top-5 del 15,3%, oltre 10,8 punti percentuali in meno rispetto al secondo classificato. Architettura di AlexNet L'AlexNet proposto da Alex Krizhevsky nel suo lavoro ha otto livelli, inclusi cinque livelli convoluzionali seguiti da tre livelli completamente collegati. Alcuni strati convoluzionali del modello sono seguiti da livelli di pool massimo. Come funzione di attivazione, la funzione ReLU viene utilizzata...
Continua a Leggere

IBM non offrirà più software di analisi o riconoscimento facciale per scopi generici

IBM non offrirà più, svilupperà o ricerca la tecnologia di riconoscimento facciale Il CEO di IBM afferma che dovremmo rivalutare la vendita della tecnologia alle forze dell'ordine IBM non offrirà più software di analisi o riconoscimento facciale per scopi generici, ha dichiarato oggi il CEO di IBM Arvind Krishna in una lettera al Congresso . Inoltre, la società non svilupperà o effettuerà più ricerche sulla tecnologia, afferma IBM a The Verge . Krishna ha inviato la lettera a Sens. Cory Booker (D-NJ) e Kamala Harris (D-CA) e Rep. Karen Bass (D-CA), Hakeem Jeffries (D-NY) e Jerrold Nadler (D-NY). "IBM si oppone fermamente e non perdonerà l'uso di alcuna tecnologia di [riconoscimento facciale], inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà di base o qualsiasi scopo che non sia coerente con il nostro valori e principi di fiducia e trasparenza ", ha detto Krishna nella lettera. "Riteniamo che sia giunto il momento di avviare un dialogo nazionale su se e come la tecnologia di riconoscimento facciale dovrebbe essere impiegata dalle forze dell'ordine nazionali". IL SOFTWARE DI RICONOSCIMENTO FACCIALE È STATO ESAMINATO PER PROBLEMI CON PREGIUDIZI RAZZIALI E PROBLEMI DI PRIVACY Il software di riconoscimento facciale è notevolmente migliorato nell'ultimo decennio grazie ai progressi dell'intelligenza artificiale. Allo stesso tempo, la tecnologia, poiché è spesso fornita da società private con scarsa regolamentazione o supervisione federale, ha dimostrato di soffrire di pregiudizi in termini di età, razza ed etnia, che possono rendere gli strumenti inaffidabili per l'applicazione della legge e sicurezza e maturi per potenziali violazioni dei diritti civili. Nel 2018, le ricerche di Joy Buolamwini e Timnit Gebru hanno rivelato per la prima volta la misura in cui molti sistemi commerciali di riconoscimento facciale (inclusi quelli...
Continua a Leggere

OpenAI e UberAI e la capsula di Petri Sintetica o Synthetic Petri Dish

OPENAI E UBER AI HANNO PROPOSTO UN NUOVO APPROCCIO ALLA RICERCA NELL'ARCHITETTURA NEURALE Recentemente, OpenAI ha collaborato con UberAI per proporre un nuovo approccio - la capsula di Petri sintetica - per accelerare il passaggio più costoso di Neural Architecture Search (NAS). I ricercatori hanno esplorato se l'efficienza computazionale del NAS può essere migliorata creando un nuovo tipo di surrogato, uno che può beneficiare della formazione miniaturizzata e generalizzare ancora oltre la distribuzione osservata delle valutazioni di verità. Le reti neurali profonde sono state testimoni del successo e sono in grado di mitigare varie sfide aziendali come il riconoscimento vocale, il riconoscimento delle immagini, la traduzione automatica, tra le altre ormai da alcuni anni. Secondo i ricercatori, Neural Architecture Search (NAS) esplora un ampio spazio di motivi architettonici ed è un processo ad alta intensità di calcolo che spesso comporta la valutazione della verità di base di ciascun motivo, istanziandolo all'interno di una grande rete e formando e valutando la rete con migliaia o più campioni di dati. Per motivo, i ricercatori intendevano la progettazione di una cellula ricorrente ricorrente o di una funzione di attivazione che si ripete spesso in un modello di rete neurale più ampio . Dietro la capsula di Petri sintetica In questo lavoro, i ricercatori hanno preso ispirazione da un'idea in biologia e hanno materializzato questa idea con l'apprendimento automatico, l'applicazione di una capsula di Petri sintetica è stata creata con l'obiettivo di identificare motivi architettonici ad alte prestazioni. Pertanto, l'approccio proposto in questa ricerca ha tentato di ricreare algoritmicamente questo tipo di processo scientifico allo scopo di trovare migliori motivi di rete neurale . Secondo i ricercatori, l'obiettivo della capsula di Petri sintetica è quello di creare un ambiente di addestramento al microcosmo in modo tale che le prestazioni di un m...
Continua a Leggere

CHE COS’È L’APPRENDIMENTO CONTRASTIVO?

Il recente successo dei modelli auto-supervisionati può essere attribuito al rinnovato interesse dei ricercatori nell'esplorazione dell'apprendimento contrastante, un paradigma dell'apprendimento auto-supervisionato. Ad esempio, gli umani possono identificare oggetti allo stato brado anche se non ricordiamo esattamente come si presenta l'oggetto. Lo facciamo ricordando le funzionalità di alto livello e ignorando i dettagli a livello microscopico. Quindi, ora la domanda è: possiamo costruire algoritmi di apprendimento della rappresentazione che non si concentrano su dettagli a livello di pixel e codifichino solo funzioni di alto livello sufficienti a distinguere oggetti diversi? Con l'apprendimento contrastante, i ricercatori stanno cercando di affrontare questo problema. Di recente, anche il SimCLR di Google ha dimostrato le implicazioni dell'apprendimento contrastivo, che vedremo brevemente alla fine di questo articolo. Principio dell'apprendimento contrastivo L'apprendimento contrastivo è un approccio per formulare il compito di trovare cose simili e dissimili per un modello ML. Utilizzando questo approccio, si può formare un modello di apprendimento automatico per classificare tra immagini simili e diverse. Il funzionamento interno dell'apprendimento contrastivo può essere formulato come una funzione di punteggio, che è una metrica che misura la somiglianza tra due caratteristiche. Qui x + è un punto dati simile a x, indicato come campione positivo x− è un punto dati diverso da x, indicato come campione negativo Oltre a ciò, è possibile creare un classificatore softmax che classifica correttamente i campioni positivi e negativi. Un'applicazione simile di questa tecnica può essere trovata nel framework SimCLR recentemente introdotto . Applicazione dell'apprendimento contrastivo tramite Google AI Google ha introdotto un framework chiamato "SimCLR" che utilizza l'apprendimento contrastante. Questo framework appr...
Continua a Leggere

GUIDA PRATICA PER SCARICARE, ANALIZZARE E VISUALIZZARE I DATI DI TWITTER

analizzare i dati di twitter Twitter è una grande fonte di notizie al giorno d'oggi perché è la fonte più completa di conversazioni pubbliche in tutto il mondo. Le ultime notizie che potrebbero non essere disponibili sui canali di notizie o sui siti Web, ma potrebbero essere di tendenza su Twitter tra le conversazioni pubbliche. Qualsiasi informazione, nonostante sia costruttiva o distruttiva, può essere facilmente diffusa attraverso la rete di Twitter saltando i tagli o le normative editoriali. A causa di questa natura di Twitter, è anche popolare tra gli analisti di dati che vogliono raccogliere alcune informazioni di tendenza ed eseguire analisi. In questo articolo, impareremo a scaricare e analizzare i dati di Twitter. Impareremo come ottenere tweet correlati a una parola chiave interessante, come pulire, analizzare, visualizzare quei tweet e infine come convertirlo in un frame di dati e salvarlo in un file CSV. Qui discuteremo un approccio pratico per scaricare e analizzare i dati di Twitter. Importeremo qui tutte le librerie richieste. Assicurati di installare le librerie 'tweepy', ' textblob ' e ' wordcloud ' usando ' pip install tweepy ', ' pip install textblob ' e ' pip install wordcloud '. Importing Libraries import tweepy from textblob import TextBlob import panda as import pp numpy as np import matplotlib.pyplot as plt import re import nltk nltk.download ('stopwords') da nltk.corpus import stopwords from nltk.stem.porter import PorterStemmer from wordcloud importa WordCloud importa json dalle collezioni import Counter Download dei dati da Twitter Per utilizzare l' API ' tweepy ', devi creare un account con Twitter Developer. Dopo aver creato l'account, vai all'opzione "Inizia" e vai all'opzione "Crea un'app". Dopo aver creato l'app, non in basso le credenziali richieste di seguito da lì. Authorization e Ricerca tweets Getting autorizzazione consumer_key = 'XXXXXXXXXXXXXXX' consumer_key_secret = 'XXXXXXXXXXXXXXX' ...
Continua a Leggere

RILEVAZIONE DI ANOMALIE NEI DATI DEL SENSORE DI TEMPERATURA USANDO IL MODELLO LSTM RNN

rilevamento anomalie tramite LSTM Il rilevamento dell'anomalia è stato utilizzato in varie applicazioni di data mining per trovare le attività anomale presenti nei dati disponibili. Con l'avanzamento delle tecniche di apprendimento automatico e gli sviluppi nel campo dell'apprendimento profondo, al giorno d'oggi la richiesta di anomalie è molto richiesta. Ciò è dovuto all'implementazione di algoritmi di machine learning con set di dati pesanti e alla generazione di risultati più accurati. Il rilevamento delle anomalie non si limita ora al rilevamento delle attività fraudolente dei clienti, ma viene anche applicato in applicazioni industriali in pieno svolgimento. Nelle industrie manifatturiere, dove vengono utilizzati macchinari pesanti, viene applicata la tecnica di rilevamento delle anomalie per prevedere le attività anomale delle macchine in base ai dati letti dai sensori. Ad esempio, in base ai dati di temperatura letti attraverso i sensori, è possibile prevedere il possibile guasto del sistema. In questo articolo, discuteremo come rilevare anomalie presenti nei dati di temperatura disponibili nel formato serie temporale. Questi dati vengono acquisiti dai sensori di un componente interno di una grande macchina industriale. Cos'è Anomaly? Nell'apprendimento automatico e nel data mining, il rilevamento delle anomalie ha il compito di identificare elementi, eventi o osservazioni rari sospetti e che sembrano diversi dalla maggior parte dei dati. Queste anomalie possono indicare alcuni tipi di problemi come frodi bancarie, problemi medici, guasti di apparecchiature industriali ecc. Il rilevamento delle anomalie ha due categorie principali, il rilevamento delle anomalie senza supervisione in cui vengono rilevate anomalie in un dato senza etichetta e il rilevamento delle anomalie sorvegliato in cui sono presenti anomalie rilevato nei dati etichettati. Esistono varie tecniche utilizzate per il rilevamento di anomalie come tecniche basate sulla densità, tra cu...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi