L’Intelligenza Artificiale interseca i temi della sostenibilità delle/nelle organizzazioni in molti punti: dalla sicurezza e dalla safety alla privacy, fino alla tutela dei minori come ha affermato il Garante italiano con un recente provvedimento che ha bloccato ChatGpt. E poi, ad esempio, per tutti i temi connessi alla non-discriminazione, alla trasparenza e ai diritti umani.
C’è però un punto di osservazione che li ricomprende tutti ed è l’etica, un tema di sostenibilità che rientra nella “G” dell’ormai arcinoto acronimo ESG, cioè nella Governance. Ed è su questo tema che l’utilizzo di strumenti basati sull’Artificial Intelligence (AI) può cambiare le carte in tavola e richiedere interventi specifici. Vediamo come.
Primo punto: il Codice Etico
Ogni organizzazione è primariamente tenuta a rispettare le leggi dei Paesi in cui opera. Allo stesso modo deve dare attuazione ai principi e ai valori che si è data volontariamente, inizialmente in modo magari spontaneo e inconsapevole e poi, nelle organizzazioni mature, esplicito e formale. Da eventuali fratture che dovessero originarsi tra leggi che tutelano diritti di terzi, tra principi e valori aziendali “alti” e la prassi quotidiana concreta, possono derivare danni gravi per l’azienda che possono comprometterne l’immagine e la reputazione e anche minacciarne la stessa sopravvivenza (esempi più eclatanti: Andersen Consulting, Enron, Parmalat, Cambridge Analytica…).
Come è noto, per ridurre questo rischio, le organizzazioni più evolute hanno iniziato da tempo a dotarsi di specifici strumenti culturali, organizzativi e operativi, a partire dal Codice Etico. Rientrano in questo ragionamento, ad esempio, i presidi anticorruzione, per la parità di genere, per la non discriminazione etc.
Una corretta governance di questi processi ha un grande rilievo per tutti gli standard di sostenibilità, inclusa la nuova direttiva europea per il reporting di sostenibilità delle imprese – CSRD – e gli standard ESRS ad essa sottesi che tra poco diventeranno obbligatori per un numero progressivamente sempre più ampio di imprese italiane ed europee. Fin qui niente di nuovo.
Codice Etico e Intelligenza Artificiale: quali prospettive e quali rischi
Quando, però, l’azione operativa dell’organizzazione si realizza grazie a strumenti basati su AI ovvero ne sfrutta le funzionalità nel proprio processo decisionale, chi potrà garantire che il comportamento dell’organizzazione verso i propri stakeholder corrisponda ai principi e ai valori contenuti nel Codice Etico?
Il responso di uno strumento basato su machine learning dipende, in modo significativo, dalla qualità del processo di addestramento e dalla storia di utilizzo dello stesso, al punto che, in momenti diversi, casi analoghi potrebbero suscitare risposte diverse, senza che l’azienda o l’organizzazione che ha adottato lo strumento sia in grado di spiegare il perchè in modo analitico, puntuale e comprensibile agli stakeholder interessati.
Pregiudizi inconsapevoli o, peggio, consapevoli, ad esempio, potrebbero discriminare gruppi sociali, etnici o di genere; una inadeguata composizione dei dataset utilizzati per l’addestramento potrebbe comportare il mancato riconoscimento di configurazioni patologiche nell’interpretazione di immagini diagnostiche relative a gruppi etnici numericamente marginali e quindi non considerati. Allo stesso modo, l’utilizzo di fonti informative non strutturate e non qualificate, come i social media e, in generale, i dati disponibili in rete, potrebbe indurre lo strumento ad assumere decisioni immotivate o errate, influenzando di conseguenza il comportamento dell’organizzazione verso i propri stakeholder.
Governance dell’AI, ovvero l’importanza di “farsi le domande giuste”
Preoccuparsi che i valori e i principi posti alla base dell’operare dell’organizzazione siano efficacemente perseguiti anche quando vengono inseriti strumenti basati su AI nel processo decisionale, nei prodotti o nei servizi come nell’organizzazione operativa, impone di introdurre, nei processi interni che portano alla introduzione di tali strumenti e alla loro gestione operativa, dei presidi specifici che contribuiscano a ridurre il rischio di comportamenti diversi rispetto all’atteso e non conformi ai principi e ai valori aziendali inclusi nel Codice Etico o, in casi estremi, alla legge.
“Porsi le domande giuste” nel processo di definizione, progettazione, realizzazione ed esercizio di nuovi servizi o di modifica dei processi decisionali mediante strumenti basati su AI può costituire un esimente o attenuante rispetto ai rischi derivanti dall’utilizzo dei nuovi strumenti. Non farsele, potrà configurarsi come una responsabilità di cui l’azienda potrà essere chiamata a rispondere.
Come si entra nell’Etica Digitale
Possiamo chiamare “Etica Digitale” questo “porsi le domande giuste” al fine di ridurre i rischi specifici connessi al processo di introduzione delle nuove tecnologie.
“Porsi le domande giuste” è primariamente responsabilità di chi decide di basare i propri servizi o i propri processi su strumenti di AI. Una responsabilità che non può essere ignorata o scaricata esclusivamente su chi ha sviluppato il software di AI o i prodotti che lo incorporano, così come – mutatis mutandis – il committente non può scaricare sul fornitore la responsabilità di utilizzo di manodopera infantile nella produzione di un bene, se non pone in essere adeguati controlli: se e quando Microsoft dovesse incorporare in BING le potenzialità di ChatGPT non potrà scaricare su OpenAI la responsabilità di eventuali conseguenze negative per gli utenti dei propri servizi.
L’etica digitale è, dunque, nell’introduzione di AI, un processo equivalente e parallelo a quello che nel mondo tradizionale porta alla costituzione di presidi volti a ridurre il rischio, quali ad esempio quelli in materia di responsabilità amministrativa da reato dell’Ente.
Affrontare il tema dell’Etica Digitale non è, quindi, una opzione teorica riservata ai pochi che se ne vogliono curare ma riguarda tutte le organizzazioni – pubbliche e private – che intendono sfruttare le potenzialità dell’AI. Inoltre, risponde a precisi obblighi di disclosure previsti, ad esempio, dagli standard ESRS, adottati lo scorso autunno dalla Commissione, che diventeranno progressivamente obbligatori per migliaia di aziende italiane ed europee.
I temi di disclosure obbligatoria previsti dagli ESRS in relazione all’AI
Anche senza scomodare le iniziative dell’EU, queste considerazioni hanno una evidente rilevanza per la sostenibilità anche a livello intuitivo. Con il diffondersi della tecnologia, infatti, il comportamento operativo concreto delle organizzazioni e delle imprese sarà sempre più fortemente influenzato, se non addirittura determinato, da valutazioni o indicazioni frutto di strumenti basati su AI che progressivamente diventeranno consuetudinarie e quindi considerate sempre più scontate e sottratte al controllo, insieme ai rischi che comportano.
La solidità del processo di adozione di questi strumenti innovativi basati su AI e la sostenibilità degli esiti di tale processo tenderanno quindi a influenzare la solidità e la sostenibilità dell’azienda stessa.
Considerando la pervasività, anche inconsapevole, di strumenti basati su AI nelle organizzazioni, nei prodotti e nei servizi, l’introduzione di prassi operative di Etica Digitale volte a governarne l’adozione e a ridurre i rischi connessi appare, quindi, sempre più come una urgenza non procrastinabile.
La presenza di un intenso dibattito internazionale in merito e di esperienze significative, accessibili pubblicamente, contribuisce ad abbattere gli alibi di chi ancora crede che il dibattito molto alla moda su Chatgpt possa rimanere confinato negli studi televisivi o nelle redazioni delle riviste specializzate: i problemi sono tutti chiaramente sul tappeto e le responsabilità delle imprese evidenti.
A completare il quadro di riferimento per tutti, nelle prossime settimane dovrebbe arrivare la nuova proposta di regolamento EU sull’AI, frutto degli sforzi del legislatore europeo di intervenire nella complessa regolamentazione della materia.