Condividere le proprie pratiche nel campo dell’intelligenza artificiale responsabile e i valori fondamentali che guidano le scelte dell’azienda in questo settore: sono questi gli obiettivi del Responsible AI Transparency Report di cui Microsoft ha recentemente pubblicato la prima edizione. Il report, si legge in una nota, offre una panoramica dettagliata del processo di sviluppo delle soluzioni di AI generativa e della gestione dei rischi, e presenta casi di studio che illustrano l’applicazione dei principi di Microsoft e il supporto offerto ai clienti nell’utilizzo responsabile dell’AI.
Il risultato di otto anni di innovazione nell’AI
“In qualità di azienda all’avanguardia nella ricerca e nella tecnologia dell’IA, ci impegniamo a condividere con il pubblico le nostre pratiche man mano che si evolvono – spiegano in un post sul blog aziendale il presidente, Brad Smith e la chief responsible AI officer, Natasha Crampton – Questo rapporto ci permette di condividere le nostre pratiche in via di maturazione, di riflettere su ciò che abbiamo imparato, di tracciare i nostri obiettivi, di renderci responsabili e di guadagnare la fiducia del pubblico”.
“Sono otto anni che innoviamo nel campo dell’IA responsabile e, man mano che il nostro programma si evolve, impariamo dal nostro passato per migliorare continuamente – concludono – Prendiamo molto sul serio la nostra responsabilità di non limitarci a garantire le nostre conoscenze, ma anche di contribuire al crescente corpus di conoscenze pubbliche, di ampliare l’accesso alle risorse e di promuovere la trasparenza nell’IA nei settori pubblico, privato e non profit”.
I punti chiave del report
Tra le evidenze principali che emergono dal report di Microsoft c’è la scelta di creare un nuovo approccio per governare le pubblicazioni di AI generativa basandosi sul Responsible AI Standard e sul National Institute of Standards and Technology’s AI Risk Management Framework di Microsoft, attraverso i quali si richiede ai team impegnati sul campo di mappare, misurare e gestire i rischi per le applicazioni generative durante tutto il loro ciclo di sviluppo.
Per supportare lo sviluppo responsabile dell’AI da parte dei clienti, inoltre, Microsoft spiega di aver lanciato nel tempo 30 strumenti di AI responsabile, per un totale di più di 100 funzionalità. Quanto alle Transparency notes, dal 2019 ne sono state pubblicate 33, con l’obiettivo di fornire ai clienti informazioni dettagliate sui servizi offerti da piattaforme come Azure OpenAI Service.
All’interno dell’ecosistema dell’AI responsabile, inoltre, Microsoft ha partecipato ad attività Multi-stakeholder per migliorare le proprie pratiche: tra queste il Frontier Model Forum, the Partnership on AI, Mitre e il National Institute of Standards and Technology.
A queste iniziative si aggiungono il supporto alle iniziative di ricerca sullì’AI, a partire dal National AI Research Resource, e il finanziamento a programmi come “Accelerating Foundation Models Research” e “AI & Society Fellows”. I 24 Microsoft Research AI & Society Fellows, spiega l’azienda, rappresentano paesi in Nord America, Africa Orientale, Australia, Asia ed Europa.
Nel corso del secondo semestre del 2023, inoltre, la community di AI responsabile di Microsoft è cresciuta del 16,6%, con il passaggio da 350 a 400 membri. Di pari passo sono cresciuti gli investimenti in formazione obbligatoria per i dipendenti, per fare in modo che aumentasse l’adozione delle pratiche di AI responsabile. “Il 31 dicembre 2023 – spiega l’azienda – il 99% dei dipendenti aveva completato il modulo di AI responsabile previsto dal programma “Standards of business conduct”.
Per conoscere meglio il rapporto tra Intelligenza artificiale e ESG e come questa tecnologia può essere al servizio dei sustainability manager suggeriamo la lettura di questi articoli
Intelligenza Artificiale al servizio della sostenibilità e dell’ESG dove si affrontano i temi legati agli ambiti nei quali l’AI è oggi utilizzata per raggiungere target di sostenibilità e per affrontare processi ESG.
Nell’articolo Intelligenza Artificiale e ESG: la sfida è sulla qualità dei dati si porta l’attenzione sul tema della necessità di disporre di grandi quantità di dati ma soprattutto di un controllo che consenta di verificarne la qualità e l’affidabilità.
Con Intelligenza Artificiale e Analytics nella lotta al Climate Change si punta lo sguardo sul tema specifico delle misure di contrasto al cambiamento climatico
Con Intelligenza artificiale per il bene sociale si guarda a 600 use case che con l’AI aiutano inclusione e sviluppo sociale
Con Intelligenza Artificiale ed Etica si guarda al ruolo dell’etica nella governance legata allo sviluppo e all’utilizzo dell’AI