L’intelligenza artificiale (AI) è stata principalmente la passione dei laboratori di scienza dei dati e dei negozi di sviluppo

clienti potenziato, capacità intelligenti estese e anche la società in generale – sono diventate più chiare. Ciò significa che è giunto il momento per i leader aziendali non solo di comprendere le implicazioni dell’IA, ma anche di farsi avanti e di aprire la strada.

Questo perché con la grande potenza dell’IA arriva una grande responsabilità. “Mentre l’IA sta rapidamente diventando un nuovo strumento nel cinturino degli amministratori delegati per generare introiti e redditività, è anche diventato chiaro che l’implementazione dell’IA richiede un’attenta gestione per prevenire danni involontari ma significativi, non solo alla reputazione del marchio ma, più importante, ai lavoratori , individui e società nel suo insieme “, scrivono Roger Burkhardt, Nicolas Hohn e Chris Wigley, tutti con McKinsey. “Poiché AI sovralimenta le imprese e la società, i CEO sono sotto i riflettori per garantire la responsabilità della propria azienda

A questo punto, i CEO si fidano dell’IA, anche se in modo un po ‘cauto. Solo circa il 37% dei CEO ammette di “fidarsi” completamente dell’IA in questo momento, uno studio condotto su 500 dirigenti e dirigenti d’azienda con sede negli Stati Uniti, condotto da EY, mostra . I CEO affermano che la tecnologia deve essere affidabile, performante e sicura.

Ciò non significa che le imprese non stiano avanzando a tutto vapore con l’intelligenza artificiale. Complessivamente, la maggior parte dei dirigenti (87%) afferma che la propria azienda investirà in iniziative AI quest’anno. C’è anche un’urgenza per questi investimenti – l’82% si aspetta che l’IA interrompa la propria attività nei prossimi tre anni. Il 29% afferma che questa interruzione sarà intensa, interessando più della metà delle aziende.

Cosa ci vorrà perché gli amministratori delegati possano affidare in maniera più completa grandi porzioni delle loro imprese all’IA? Di seguito sono riportati gli elementi chiave per costruire tale fiducia, il sondaggio EY rileva:

Affidabilità e prestazioni della tecnologia 44%
Sicurezza e incorruttibilità della tecnologia 38%
Etica che circonda l’uso di AI 29%
Nuove opportunità guidate da AI 27%
Governance e supervisione della tecnologia AI 27%
I dipendenti assumono un atteggiamento ancora più cauto nei confronti dell’intelligenza artificiale, come mostra il sondaggio EY. La fiducia dei dipendenti (33%) è uno dei maggiori ostacoli all’adozione dell’IA. La mancanza di talento di intelligenza artificiale è la più grande sfida mai vista, citata dal 48%. Un altro 40% vede problemi normativi, mentre il 37% afferma che mancano infrastrutture adeguate per supportare l’IA.

Il 71% dei CEO, infatti, ritiene che l’IA debba essere regolata in modo uniforme in tutto il mondo. Più della metà degli intervistati (52%) si è classificata prima negli Stati Uniti quando è stato chiesto quale paese stava guidando la corsa globale AI e metà degli intervistati (50%) ha selezionato gli Stati Uniti come il paese con la migliore strategia AI a lungo termine. Tuttavia, la Cina ha segnato il secondo posto con il 47%.

In che modo gli amministratori delegati e gli alti dirigenti d’azienda dovrebbero prendere l’iniziativa con l’intelligenza artificiale? Il team McKinsey formula alcune raccomandazioni e spiega perché i dirigenti aziendali di alto livello sono ora così importanti. “Ci sono troppi casi in cui squadre di scienze dei dati ben intenzionate e di talento si sono accidentalmente immerse in acque torbide e le loro organizzazioni sono state trascinate in una ripulita di stampa negativa”, avvertono Burkhardt ei suoi co-auroratori. “I progressi delle tecniche di intelligenza artificiale e l’uso crescente dell’IA complicano le cose spostando continuamente la linea che gli scienziati di dati devono percorrere. Di conseguenza, i CEO devono scavare più profondi e complessi team di analisi per valutare le loro azioni sotto il caldo bagliore dell’opinione pubblica. “

Burkhardt e il suo tempo raccomandano che i CEO e gli alti dirigenti prendano il comando in cinque aree chiave per aumentare la fiducia nell’IA:

Acquisizione dei dati: “I responsabili devono essere vigili nel chiedere ai team di scienza dei dati dove acquisire i dati e in che modo verranno utilizzati i dati, e sfidarli a considerare in che modo i clienti e la società potrebbero reagire al loro approccio”.

Idoneità dei set di dati: “I responsabili devono chiedere ai team di scienza dei dati domande abbastanza granulari per capire come hanno campionato i dati per addestrare i loro modelli.I set di dati riflettono le popolazioni del mondo reale? Hanno incluso i dati rilevanti per i gruppi di minoranza? test durante lo sviluppo del modello e uso di problemi di scoperta con il set di dati? Cosa potremmo mancare? “

Equità degli output di intelligenza artificiale: ” I leader devono quindi inquadrare e garantire l’adozione di un processo ponderato sull’equità attraverso la progettazione, prima stabilendo definizioni e metriche per valutare l’equità, come descritto in precedenza, e quindi sfidare continuamente i team di scienza dei dati a considerare equità durante gamma completa del loro lavoro. “

Conformità normativa e impegno: “I leader hanno dovuto riesaminare il modo in cui le loro organizzazioni utilizzano i dati dei clienti e interpretare nuove questioni normative come il diritto di essere valutato da un essere umano, il diritto all’oblio e la profilazione automatica.”

Spiegabilità: “I responsabili devono sondare i propri team di dati sui tipi di modelli che utilizzano, ad esempio sfidando i team a dimostrare di aver scelto il modello più semplice performante (non l’ultima rete neurale profonda) e chiedendo l’uso della spiegabilità tecniche per tecniche naturalmente opache. “

Di ihal