In breve

In breve

  • L’utilizzo dell’IA non è certo esente da rischi. Vanno considerati in anticipo quattro questioni che riguardino fiducia, responsabilità, sicurezza e controllo
  • Le aziende devono pensare a un approccio responsabile alla governance, alla progettazione e al monitoraggio dell'IA e al reskilling.
  • La comprensibilità dei processi decisionali dell'IA è di vitale importanza per conservare la fiducia del pubblico.


Come per tutte le innovazioni, le enormi opportunità e i benefici offerti dall'IA non sono certo esenti da rischi.

Quando ci si avventura nell'IA conviene avere una visione chiara dei possibili rischi in quattro aree cruciali:

  • FIDUCIA. Come dimostriamo al pubblico che l'IA è sicura? Come facciamo ad evitare i pregiudizi, inconsci o meno, che ci sono stati fin dall'inizio?
  • RESPONSABILITÀ. Cosa succede quando una IA commette un errore oppure infrange la legge? Chi è legalmente responsabile?
  • SICUREZZA. Come possiamo prevenire la manipolazione non autorizzata o dolosa di una IA?
  • CONTROLLO. Cosa avviene quando una macchina assume il controllo di un processo? Come fa l'uomo a riprenderne possesso, se ne ha bisogno?

IA responsabile

Per trovare le risposte, le aziende devono adottare un approccio responsabile e ‘human first’ al pensiero dell'IA. È possibile mitigare il rischio legato all’utilizzo dell’IA seguendo quattro imperativi:

  • GOVERNARE. Creare il quadro di governance adatto allo sviluppo dell'intelligenza artificiale. Ancorarlo ai valori core aziendali, agli sbarramenti etici e ai framework di responsabilità.
  • PROGETTARE. Creare da subito fiducia nella IA, tenendo conto di privacy, trasparenza e sicurezza sin dalle prime fasi della progettazione.
  • MONITORARE. Controllare le prestazioni della IA in rapporto a un set di parametri chiave. Assicurarsi che siano inclusi i parametri di responsabilità algoritmica, prevenzione e sicurezza.
  • RIQUALIFICARE. Democratizzare la comprensione dell'IA in tutta l'organizzazione per abbattere le barriere in coloro che hanno subito l'impatto della tecnologia.

La necessità di spiegare

C'è una cosa, soprattutto, che garantirà la fiducia pubblica quando un'azienda comincerà a usare l'intelligenza artificiale: la ‘spiegabilità’, ovvero l'essere pronti a spiegare come e perché una IA è arrivata a prendere la decisione che ha preso. È una cosa con cui alcune industrie regolamentate hanno già una certa familiarità. Gli istituti di servizi finanziari, per esempio, sono tenuti a spiegare le decisioni che prendono e che coinvolgono i loro clienti. Ma c'è anche una questione più ampia qui: l'uomo si fida più di quello che capisce.

La cosa, in realtà, è più facile a dirsi che a farsi. L'apprendimento automatico è spesso, per sua stessa natura, un esercizio da ‘scatola nera’, nel senso che opera in modi che possono rendere molto difficile spiegare come sia arrivato ai risultati che ha prodotto. Ma in molti stanno riflettendo sulla questione, e presto probabilmente emergeranno nuovi approcci in grado di offrire spiegazioni migliori della scienza che sta alla base delle decisioni dell'IA.

Massimo Morielli

Responsabile Accenture Digital in Italia – Europa Centrale e Grecia


Leonardo Galimberti

Responsabile Accenture Applied Intelligence in Italia – Europa Centrale e Grecia

SCOPRI DI PIÙ


CENTRO ISCRIZIONI
Resta informato con la nostra Newsletter (in inglese) Resta informato con la nostra Newsletter (in inglese)