Runway ML mette gli strumenti di IA nelle mani dei creatori di tutto il mondo
Un nuovo modello per un facile accesso all’apprendimento automatico

L’apprendimento automatico può essere uno strumento fantastico per i creator, ma integrare l’intelligenza artificiale nel tuo flusso di lavoro è una sfida per chi non può programmare. Un nuovo programma chiamato Runway ML mira a semplificare questo processo fornendo ad artisti, designer, registi e altri un “app store” di applicazioni di machine learning che possono essere attivate con pochi clic.

Supponiamo che tu sia un animatore con un budget che vuole trasformare un video di un attore umano in un modello 3D. Invece di noleggiare costose apparecchiature di motion capture, è possibile utilizzare Runway per applicare una rete neurale denominata “PosetNet” alle riprese, creando modelli wireframe del proprio attore che possono essere esportati per l’animazione.

UN MODO SEMPLICE PER SPERIMENTARE L’APPRENDIMENTO AUTOMATICO
O dire che è necessario rimuovere una tazza di caffè che è stata accidentalmente lasciata in un colpo sul tuo dramma fantasy fantasy ad alto budget. Si potrebbe modificare fuori il modo tradizionale, la pittura sopra la tazza a mano , oppure è possibile eseguire il filmato attraverso un modello di segmentazione machine learning, che ponga in evidenza automaticamente oggetti diversi in ogni fotogramma per rendere il vostro lavoro più facile.

Esempi come questi sono solo la punta dell’iceberg per Runway, che il co-fondatore Cristóbal Valenzuela descrive come uno strumento radicalmente egualitario. “L’apprendimento automatico è una tecnologia molto esclusiva”, racconta Valenzuela a The Verge . “Ma voglio rendere le cose più inclusive; per ottenere persone di diversa estrazione seduti attorno al tavolo e usando questi modelli “.

Runway è iniziato come progetto di tesi di Valenzuela presso la Tisch School of the Arts della New York University. Dopo aver ricevuto feedback entusiastici dalla comunità artistica di IA, ha deciso di prendere il programma mainstream, chiedendo a due amici della scuola di salire a bordo come co-fondatori e raccogliere i soldi iniziali dai sostenitori di New York e della Silicon Valley. La società è stata costituita lo scorso dicembre con un lancio beta a seguito di questo gennaio.

Valenzuela è a cavallo tra i campi dell’arte e del codice e afferma di voler colmare questi due mondi, consentendo ai non codificatori di utilizzare modelli di apprendimento automatico e, a loro volta, collegando i ricercatori alle persone che beneficeranno direttamente del loro lavoro.

In un post sul blog di Valenzuela, lo scorso maggio, ha paragonato l’attuale scena artistica della IA alla pittura nei secoli XVI e XVII. A quel tempo, l’atto di conservare e usare semplicemente la pittura era qualcosa di un segreto artigianale, con pittori che si affidavano a tecniche esoteriche che coinvolgevano le vesciche e le corde dei maiali. Ma con l’invenzione del tubo di vernice nel 1841, l’imbarcazione divenne più accessibile. Era anche più facile condurre all’aperto, portando a nuovi stili e movimenti.

FARE PER L’INTELLIGENZA ARTIFICIALE CIÒ CHE I TUBI DI VERNICE HANNO FATTO PER LA RITRATTISTICA
Come il pittore del XIX secolo Pierre-Auguste Renoir disse a suo figlio : “Senza i colori nei tubi, non ci sarebbe stato Cézanne, nessun Monet, nessun Sisley o Pissarro, niente di quello che i giornalisti chiamerebbero Impressionismo”. In altre parole: l’accessibilità genera creatività.

Ma qual è il “tubo di vernice” per gli artisti moderni? Valenzuela sostiene in modo convincente che potrebbe essere Runway – o, almeno, un programma che assomiglia molto a questo.

Le vesciche dei maiali che frenano il progresso in questo caso sono il set di abilità attualmente necessario per utilizzare modelli di apprendimento automatico. Ciò significa imparare a utilizzare software come TensorFlow o PyTorch; potrebbe significare comprare alcune GPU costose (perché il tuo computer corrente non eseguirà questi sistemi) o collegarsi a un’istanza di AWS. Nessuno di questi compiti è al di fuori della portata dei non codificatori, ma certamente richiedono tempo e creano un collo di bottiglia per gli utenti. In confronto, il modello di Runway è il tubo di vernice perfetto: basta fare clic e andare.

La compagnia non è la prima a rendere i modelli IA più facili da usare, ovviamente. Ma esempi precedenti – come Lobe , che consente agli utenti di addestrare i sistemi IA usando un’interfaccia visiva prima di essere acquistati da Microsoft – si sono concentrati su casi d’uso aziendale, piuttosto che su casi creativi.

Il mercato di destinazione della sfilata è ovvio quando si carica il fronte del negozio, che consente di sfogliare una gamma di modelli che vanno dalla generazione del testo al rilevamento del movimento.

Fai clic per visualizzare i dettagli di ciascun modello, fai clic per aggiungerlo al tuo spazio di lavoro, imposta i tuoi input e output, quindi avvia il sistema. Ci sono dei ganci per connettere queste uscite ad altre app (quindi puoi inviare ad ML Photoshop, ad esempio) e gli utenti possono importare nuovi modelli direttamente da GitHub con solo poche righe di codice.

Di ihal