intelligenza artificiale explainable
intelligenza artificiale explainable
29 Dicembre, 2019

Multe per l’Intelligenza Artificiale Non Explainable

Tempo lettura: 3 min

Si riapre il dibattito su intelligenza artificiale – specialmente, deep learning, come black box o l’approccio white box, cioè un’intelligenza artificiale explainable di cui l’azienda mantiene il controllo dei processi e delle decisioni aziendali.

Le aziende e altre organizzazioni potrebbero rischiare multe da svariati milioni se non sono in grado di spiegare le decisioni prese dall’intelligenza artificiale, secondo i piani presentati dal watchdog dei dati del Regno Unito.

Una questione critica: LIFEdata ha scelto da sempre l’approccio white-box, cioè la scelta di mettere a disposizione delle aziende una soluzione che aumenti l’intelligenza dell’organizzazione, ma che la mantenga sempre sotto lo stretto controllo dell’azienda.

La piattaforma LIFEdata fa da acceleratore di introduzione di logiche di intelligenza artificiale e data-driven per dare ritorno misurabile sul ROI, e consentire all’azienda di servizi distribuita di:

  • Apprendere con gradualità i vantaggi della digitalizzazione e dell’intelligenza artificiale, senza attaccare i processi esistenti
  • Applicare tecniche diverse di intelligenza artificiale per aumentare l’intelligenza di tali processi e dell’organizzazione
  • Sfruttare l’opportunità dell’Omnicanalità che oggi tipicamente è un costo o perlomeno un’inefficienza
  • Iniziare la strutturazione dei dati – passo fondamentale per l’evoluzione alla cognitive enterprise
  • Consolidare la conoscenza aziendale, processi, cataloghi, procedure, knowledge base in un cuore sotto il controllo dell’azienda invece di mantenerla dispersa, solo sulle persone, senza controllo nè valorizzazione
  • Gestire la valorizzazione della conoscenza dell’azienda con integrazione nelle interazioni con la semplicità dei mattoncini Lego

quanto costa intelligenza artificiale

L’Ufficio dell’Information Commissioner (ICO) ha affermato che le sue nuove linee guida sono fondamentali perché il Regno Unito è ad un punto di non ritorno in cui molte aziende utilizzano l’IA per informare le decisioni per la prima volta.
Il regolatore – l’equivalente del nostro Garante della Privacy – afferma che è il primo al mondo a proporre regole per spiegare le scelte prese dall’IA. Circa due terzi delle società di servizi finanziari del Regno Unito utilizzano l’Intelligenza Artificiale per prendere decisioni, comprese le compagnie di assicurazione per gestire i sinistri, e un sondaggio mostra che circa la metà del pubblico britannico è preoccupato per gli algoritmi che prendono le decisioni che gli esseri umani invece spiegherebbero.

La guidance, che oggi è in consultazione, spiega alle organizzazioni come comunicare spiegazioni alle persone in una forma che capiranno.
In caso contrario, in casi estremi, potrebbe comportare una sanzione pecuniaria fino al 4% del fatturato globale di una società, ai sensi della legge dell’UE sulla protezione dei dati.
Prodotta in collaborazione con l’Alan Turing Institute, la guidance dovrebbe entrare in vigore nel 2020.