OpenAI ha pubblicato l’intelligenza artificiale generatrice di testi che riteneva fosse troppo pericolosa per essere condivisa

Il laboratorio afferma di aver visto “finora nessuna prova evidente di uso improprio”

Il laboratorio di ricerca OpenAI ha rilasciato la versione completa di un sistema di intelligenza artificiale che genera testo che gli esperti hanno avvertito che potrebbe essere utilizzato per scopi dannosi.

L’Istituto ha originariamente annunciato il sistema, GPT-2, nel febbraio di quest’anno , ma ha trattenuto la versione completa del programma per paura che sarebbe stato usato per diffondere notizie false, spam e disinformazione. Da allora ha rilasciato versioni più piccole e meno complesse di GPT-2 e ne ha studiato la ricezione. Altri hanno anche replicato il lavoro. In un post sul blog questa settimana, OpenAI ora afferma di non aver visto “nessuna prova evidente di un uso improprio” e di aver rilasciato il modello per intero.

GPT-2 PUÒ SCRIVERE ARTICOLI, STORIE, POESIE E CODICI FALSI
GPT-2 fa parte di una nuova generazione di sistemi di generazione di testi che hanno impressionato gli esperti con la loro capacità di generare testi coerenti da richieste minime. Il sistema è stato formato su otto milioni di documenti di testo estratti dal Web e risponde ai frammenti di testo forniti dagli utenti. Alimentagli un titolo falso, per esempio, e scriverà una notizia; dagli la prima riga di una poesia e fornirà un verso intero.

È difficile comunicare esattamente quanto sia buono l’output di GPT-2, ma il modello produce spesso una scrittura misteriosamente convincente che spesso può dare l’apparenza di intelligenza (anche se questo non vuol dire che cosa sta facendo GPT-2 coinvolge qualsiasi cosa che riconosciamo come cognizione) . Gioca con il sistema abbastanza a lungo, però, e i suoi limiti diventano chiari. Soffre in particolare della sfida della coerenza a lungo termine; ad esempio, utilizzare i nomi e gli attributi dei personaggi in modo coerente in una storia o attenersi a un singolo argomento in un articolo di notizie.

Il modo migliore per farsi un’idea delle capacità di GPT-2 è provare tu stesso. Puoi accedere a una versione web su TalkToTransformer.com e inserire le tue istruzioni. (Un “trasformatore” è un componente dell’architettura di apprendimento automatico utilizzato per creare GPT-2 e i suoi simili.)

Oltre alle capacità grezze di GPT-2, il rilascio del modello è notevole come parte di un dibattito in corso sulla responsabilità dei ricercatori dell’IA di mitigare i danni causati dal loro lavoro. Gli esperti hanno sottolineato che un facile accesso a strumenti di intelligenza artificiale all’avanguardia può consentire agli attori malintenzionati; una dinamica che abbiamo visto con l’uso di deepfakes per generare porno vendetta, per esempio. OpenAI ha limitato il rilascio del suo modello a causa di questa preoccupazione.

Tuttavia, non tutti hanno applaudito all’approccio del laboratorio. Molti esperti hanno criticato la decisione , affermando che limitava la quantità di ricerche che altri avrebbero potuto fare per mitigare i danni del modello e che aveva creato un clamore inutile sui pericoli dell’intelligenza artificiale.

“Le parole” troppo pericolose “sono state gettate casualmente qui senza troppi pensieri o sperimentazioni”, ha detto il ricercatore Delip Rao a The Verge a febbraio. “Non credo che [OpenAI] abbia trascorso abbastanza tempo a dimostrare che in realtà era pericoloso.”

C’è un subreddit popolato interamente da personificazioni AI di altri subreddit
I ricercatori dell’IA discutono l’etica della condivisione di programmi potenzialmente dannosi
Questo software di completamento automatico basato su AI è Smart Compose di Gmail per i programmatori
Nel suo annuncio del modello completo di questa settimana, OpenAI ha osservato che GPT-2 potrebbe essere utilizzato in modo improprio, citando ricerche di terze parti che affermano che il sistema potrebbe aiutare a generare “propaganda sintetica” per posizioni ideologiche estreme. Ma ha anche ammesso che i suoi timori che il sistema sarebbe stato utilizzato per pompare un volume elevato di spam coerente, travolgenti sistemi di informazione online come i social media, non sono ancora sorti.

Il laboratorio ha anche notato che i suoi stessi ricercatori avevano creato sistemi automatici in grado di individuare l’output di GPT-2 con una precisione del 95% circa, ma che questa cifra non era abbastanza elevata “per il rilevamento autonomo” e significa che qualsiasi sistema utilizzato per individuare automaticamente il testo falso avrebbe bisogno da abbinare a giudici umani. Questo, tuttavia, non è particolarmente insolito per tali compiti di moderazione, che spesso fanno affidamento sugli umani nel ciclo per individuare immagini e video falsi.

OpenAI afferma che continuerà a guardare come GPT-2 viene utilizzato dalla comunità e dal pubblico e svilupperà ulteriormente le sue politiche sulla pubblicazione responsabile della ricerca sull’IA.

Di ihal