Come è possibile creare fiducia nei confronti dell’intelligenza artificiale? I pro e i contro dell’intelligenza artificiale spiegabile

Rendere l’intelligenza artificiale più trasparente potrebbe essere la chiave per la sua adozione più ampia.

L’intelligenza artificiale (AI), la più importante tendenza tecnologica di quest'anno, sta diventando sempre più sofisticata e più diffusa. Anche se è già utilizzata in diversi settori industriali, l’intelligenza artificiale non ha ancora raggiunto il pieno potenziale e offre enormi opportunità per aziende di tutte le dimensioni. Di fatto, l’intelligenza artificiale potrebbero contribuire per un valore di fino a 15,7 miliardi di dollari all'economia globale entro il 2030, secondo un report di PwC.

Tuttavia, più l'intelligenza artificiale è integrata nelle aziende e nelle nostre vite quotidiane, maggiore è la necessità di comprenderla. Anche se talvolta i titoli dei media risultano allarmisti, dipingendo scenari da incubo in cui robot assassini e armi autonome si ribellano agli esseri umani, la questione della fiducia è centrale per il futuro dell’intelligenza artificiale. Secondo un sondaggio di PwC, il 67 per cento circa dei leader aziendali ritiene che l’intelligenza artificiale e l’automazione avranno un impatto negativo sui livelli di fiducia di tutte le parti in causa del settore entro i prossimi cinque anni.

“Nota anche come XAI o intelligenza artificiale trasparente, l’intelligenza artificiale spiegabile descrive un sistema in cui le azioni dell’intelligenza artificiale possono essere comprese facilmente dagli esseri umani”

Ciò evidenza la necessità di una maggiore trasparenza in merito alla tecnologia, e proprio in questo senso l’intelligenza artificiale spiegabile può essere d'aiuto. Nota anche come XAI o intelligenza artificiale trasparente, l’intelligenza artificiale spiegabile descrive un sistema in cui le azioni dell’intelligenza artificiale possono essere comprese facilmente dagli esseri umani. L’obiettivo è di comprendere esattamente come e perché l’intelligenza artificiale prende determinate decisioni. L’intelligenza artificiale spiegabile, indubbiamente un passo nella giusta direzione, rende la tecnologia più trasparente.

In molti sistemi basati su intelligenza artificiale, gli utenti finali non sanno come o perché è stata raggiunta una decisione. Non solo questo approccio di tipo “black box” fa molto poco per incoraggiare la fiducia, ma potrebbe anche rendere difficile o quasi impossibile attenersi alle normative sulla privacy come il GDPR. In base a tali leggi, le aziende hanno bisogno di un’intelligenza artificiale che renda spiegabili decisioni che possono essere riprodotte. Le aziende potrebbero anche essere obbligate a rivelare dove hanno ottenuto i dati che guidano l’intelligenza artificiale. Su scala più ampia, questo approccio incoraggia le buone prassi, offrendo l’opportunità di rendere più “responsabili” i sistemi dedicati al processo decisionale. Inoltre, l’intelligenza artificiale spiegabile è importante per rilevare errori e pregiudizi nei dati che potrebbero indurre a prendere decisioni non corrette o ingiuste.

Favorire maggiore fiducia nei confronti dell’uso dell’intelligenza artificiale è essenziale. Solo se c’è fiducia nella tecnologia è possibile implementarla su larga scala in un’organizzazione. Ma anche se l’intelligenza artificiale spiegabile potrebbe essere un obiettivo ragionevole, ci sono una serie di importanti sfide da superare.

Il contesto rivestirà un ruolo importante: ad esempio comprendere gli algoritmi che supportano le raccomandazioni di film e programmi TV di Netflix* non è di importanza critica per la maggior parte delle persone, dato che l’impatto è minimo. Tuttavia, la maggiore preoccupazione è comprendere l’intelligenza artificiale in situazioni in cui l’impatto è molto più grave. Prendere decisioni di diagnosi nell’assistenza sanitaria o intraprendere azioni militari utilizzando un sistema basato sull’intelligenza artificiale richiede una comprensione dettagliata di come esattamente deve avvenire il processo decisionale. Ecco perché il livello in cui un’azienda deve spiegare il lavoro che sta dietro l’intelligenza artificiale può giustamente dipendere dalla serietà delle conseguenze e dai livelli di autonomia interessati.

“Abbiamo l’opportunità di rendere il nostro processo decisionale più sistematico e responsabile”, afferma in un blog post Casimir Wierzynski, Senior Director, Office of the CTO, Artificial Intelligence Products Group di Intel. “Molte questioni relative alla spiegabilità sono legate alla politica sociale: quali sono le qualità del processo decisionale che desideriamo?

“Per gli ingegneri, ciò potrebbe tradursi in requisiti di sistema che possano essere progettati, misurati e testati di continuo. Dipendono dal dominio a cui sono applicati: taggare le foto delle vacanze ha requisiti diversi rispetto ad analizzare immagini mediche.

“Tuttavia, man mano che ci affidiamo di più ai sistemi automatizzati per prendere decisioni, abbiamo un’opportunità senza precedenti di essere più espliciti e sistematici sui valori che guidano il nostro modo di decidere”, conclude.

Tuttavia, l’impatto dell’intelligenza artificiale spiegabile potrebbe non essere sempre positivo. Se le aziende sono costrette a rivelare il lavoro svolto al loro interno per sviluppare la tecnologia, ciò potrebbe significare che stanno in effetti divulgando idee e proprietà intellettuale. E non è tutto: sorgono poi domande su cosa intendiamo esattamente per “spiegabile”. Molti algoritmi dell’intelligenza artificiale vanno oltre la comprensione umana e certamente oltre la capacità di capire della maggior parte degli utenti finali, per cui una spiegazione non avrebbe molto senso in questo caso.

E, soprattutto, esiste un compromesso tra prestazioni e spiegabilità. Se ogni passaggio di un sistema di intelligenza artificiale deve essere documentato e spiegato, il processo diventerà inevitabilmente più lento. Tutto questo potrebbe non solo ostacolare la velocità del sistema e limitarne le applicazioni, ma anche rallentare ulteriori innovazioni.

Le aziende sono destinate ad affrontare una pressione sempre maggiore per implementare sistemi di intelligenza artificiale trasparenti nei prossimi mesi e anni. La spiegabilità sarà fondamentale per creare la fiducia necessaria per un’adozione più ampia dell’intelligenza artificiale. Tuttavia, potrebbe essere necessario più tempo per raggiungere una definizione ampiamente accettata di cosa dovrebbe comportare esattamente l’intelligenza artificiale spiegabile.

Restate in contatto

Rimanete sempre aggiornati sulle tecnologie, le tendenze e le idee che stanno delineando il futuro dell'ambiente di lavoro grazie a Intel IT Center.

Inviando questo modulo, confermi di essere un adulto di almeno 18 anni di età e acconsenti che Intel ti contatti con e-mail di marketing o telefonicamente. Puoi cancellare l’iscrizione in qualunque momento. I siti Web e le comunicazioni di Intel sono soggetti alla Informativa sulla privacy e ai Termini di utilizzo di Intel.

Inviando questo modulo, confermi di essere un adulto di almeno 18 anni di età e acconsenti che Intel ti contatti con e-mail di marketing o telefonicamente. Puoi cancellare l’iscrizione in qualunque momento. I siti Web e le comunicazioni di Intel sono soggetti alla Informativa sulla privacy e ai Termini di utilizzo di Intel.