I ricercatori usano l’intelligenza artificiale per studiare in che modo i riflessi differiscono dalle immagini originali
I ricercatori della Cornell University hanno recentemente utilizzato i sistemi di apprendimento automatico per studiare in che modo i riflessi delle immagini sono diversi dalle immagini originali. Come riportato da ScienceDaily , gli algoritmi creati dal team di ricercatori hanno scoperto che c’erano segni rivelatori, differenze rispetto all’immagine originale, che un’immagine era stata capovolta o riflessa.

Professore associato di informatica presso la Cornell Tech, Noah Snavely, era l’autore senior dello studio. Secondo Snavely, il progetto di ricerca è iniziato quando i ricercatori sono rimasti incuriositi dal modo in cui le immagini differivano in modo ovvio e sottile quando venivano riflesse. Snavely ha spiegato che anche le cose che sembrano molto simmetriche a prima vista possono di solito essere distinte come un riflesso quando studiate. Sono incuriosito dalle scoperte che puoi fare con nuovi modi di raccogliere informazioni “, ha detto Snavely, secondo ScienceDaily.

I ricercatori si sono concentrati sulle immagini di persone, usandole per addestrare i loro algoritmi. Ciò è stato fatto perché i volti non sembrano ovviamente asimmetrici. Se addestrato su dati che distinguevano le immagini capovolte dalle immagini originali, secondo quanto riferito l’IA ha raggiunto una precisione compresa tra il 60% e il 90% tra vari tipi di immagini.

Molti dei tratti distintivi visivi di un’immagine capovolta che l’IA ha appreso sono abbastanza sottili e difficili da discernere per gli umani quando guardano le immagini capovolte. Al fine di interpretare meglio le funzionalità utilizzate dall’IA per distinguere tra immagini capovolte e immagini originali, i ricercatori hanno creato una mappa di calore. La mappa di calore mostrava regioni dell’immagine su cui l’IA tendeva a focalizzarsi. Secondo i ricercatori, uno degli indizi più comuni utilizzati dall’intelligenza artificiale per distinguere le immagini capovolte era il testo. Ciò non sorprende, ei ricercatori hanno rimosso le immagini contenenti testo dai loro dati di formazione al fine di farsi un’idea delle differenze più sottili tra le immagini capovolte e quelle originali.

Dopo che le immagini contenenti testo sono state eliminate dal set di addestramento, i ricercatori hanno scoperto che il classificatore AI si concentrava sulle caratteristiche delle immagini come i chiamanti delle magliette, i telefoni cellulari, gli orologi da polso e i volti. Alcune di queste caratteristiche hanno schemi ovvi e affidabili su cui l’IA può affinare, come il fatto che le persone spesso portano i telefoni cellulari nella mano destra e che i pulsanti sui colletti delle camicie sono spesso a sinistra. Tuttavia, i lineamenti del viso sono in genere altamente simmetrici con differenze che sono piccole e molto difficili da rilevare per un osservatore umano.

I ricercatori hanno creato un’altra mappa di calore che ha evidenziato le aree dei volti su cui l’IA tendeva a concentrarsi. L’intelligenza artificiale spesso utilizzava gli occhi, i capelli e le barbe delle persone per rilevare immagini capovolte. Per motivi che non sono chiari, le persone spesso guardano leggermente a sinistra quando fanno delle foto. Per quanto riguarda il motivo per cui i capelli e le barbe sono indicatori di immagini capovolte, i ricercatori non sono sicuri ma teorizzano che la mano di una persona potrebbe essere rivelata dal modo in cui si radono o si pettinano. Mentre questi indicatori possono essere inaffidabili, combinando più indicatori insieme i ricercatori possono ottenere maggiore sicurezza e accuratezza.

Ulteriori ricerche in tal senso dovranno essere condotte, ma se i risultati sono coerenti e affidabili, potrebbero aiutare i ricercatori a trovare modi più efficienti di formazione degli algoritmi di machine learning. L’ intelligenza artificiale computerizzata viene spesso addestrata utilizzando i riflessi delle immagini, in quanto è un modo efficace e rapido per aumentare la quantità di dati di allenamento disponibili. È possibile che analizzare come le immagini riflesse siano diverse potrebbe aiutare i ricercatori di apprendimento automatico a comprendere meglio i pregiudizi presenti nei modelli di apprendimento automatico che potrebbero indurli a classificare in modo impreciso le immagini.

Come Snavely è stato citato da ScienceDaily:

“Questo porta a una domanda aperta per la comunità di computer vision, che è, quando è OK fare questo lanciando per aumentare il set di dati e quando non va bene? Spero che questo possa indurre le persone a pensare di più a queste domande e iniziare a sviluppare strumenti per capire come sta influenzando l’algoritmo “.

Di ihal