ISO 42001, framework per il governo di rischi e opportunità dell’intelligenza artificiale

ISO 42001, framework per il governo di rischi e opportunità dell’intelligenza artificiale

Il 2024 è indiscutibilmente l’anno in cui le organizzazioni stanno esplorando le reali opportunità dell’intelligenza artificiale o, nei casi più maturi, stanno studiando i modelli di business delle sperimentazioni di successo condotte nel recente passato.

L’adozione di intelligenze artificiali in azienda sarà, con ogni probabilità, sempre più pervasiva e le intelligenze artificiali saranno parte integrante del modello di business di ogni azienda, quantomeno come abilitatore di efficienze.

Tutte le organizzazioni sono però concordi sul fatto che l’integrazione di intelligenze artificiali nel modello di business aziendale vada attentamente valutata, sia in termini di opportunità per il business sia in termini di impatti sulla responsabilità sociale dell’impresa.

Proprio per valutare attentamente gli impatti delle intelligenze artificiali sulla responsabilità sociale dell’impresa nascono, in seno alle organizzazioni, i comitati etici per l’intelligenza artificiale.

Un comitato etico per l’intelligenza artificiale dovrebbe, secondo Reid Blackman (Harvard Business Review Press, 2022) “identificare sistematicamente ed esaurientemente i rischi etici di prodotto basati sull'IA che vengono sviluppati all'interno o acquistati da soggetti terzi, e contribuire ad attenuarli. Quando il team di prodotto e il team degli acquisti gli sottopongono la proposta di una soluzione IA, il comitato deve confermare che la soluzione non pone seri rischi di carattere etico, suggerire delle modifiche e riesaminarla dopo la loro adozione, o sconsigliarne del tutto lo sviluppo o l'acquisto".

E, questo, vale per tutte le organizzazioni, siano esse produttrici di prodotti basati sull’intelligenza artificiale o solo acquirenti e utilizzatrici di prodotti realizzati da altri.

Ma come è possibile identificare sistematicamente ed esaurientemente i rischi etici di prodotto basati sull'intelligenza artificiale che vengono sviluppati all'interno o acquistati da soggetti terzi, e contribuire ad attenuarli? E come è possibile dare evidenza alla catena del valore aziendale che l’azienda adottata questo approccio virtuoso?

Una possibile risposta la offre la normazione tecnica, intesa non come strumento di imposizione e burocratizzazione delle attività aziendali, ma nella sua accezione virtuosa di “attività svolta per stabilire, relativamente a problemi effettivi o potenziali, disposizioni per utilizzi comuni e ripetuti, miranti ad ottenere il miglior ordine in un determinato contesto”, come definito nella UNI CEI EN 45020:2007 “Normazione e attività connesse - Vocabolario generale”.

La normazione tecnica ha infatti prodotto, nel dicembre 2023, la norma ISO/IEC 42001:2023 “Information technology - Artificial intelligence Management system”.

ISO/IEC 42001 è uno standard internazionale che specifica i requisiti per stabilire, implementare, mantenere e migliorare un sistema di gestione dell’intelligenza artificiale, pensato per organizzazioni che producono o utilizzano prodotti e servizi basati su intelligenza artificiale, al fine di assicurare uno sviluppo e un uso responsabile di sistemi basati su IA.

Come si stabilisce, implementa, mantiene e migliora, in accordo alla ISO/IEC 42001, un sistema di gestione dell’intelligenza artificiale?

Innanzitutto, da una analisi di contesto interno ed esterno finalizzata a definire il perimetro di applicabilità di un sistema per la gestione sistematica dei rischi e delle opportunità connesse all’intelligenza artificiale.

E, dall’analisi di contesto, deve inoltre emergere chi sono le parti, interne ed esterne, interessate dal sistema di gestione.

Successivamente, è necessario che l’alta direzione definisca e comunichi chiaramente la politica aziendale per l’intelligenza artificiale e istituisca formalmente ruoli, responsabilità e autorità di governo dell’intelligenza artificiale in azienda.

Il tutto funzionale a governare un’attività sistematica di valutazione di rischi e opportunità legate all’intelligenza artificiale in azienda, il loro potenziale impatto sulle attività aziendali e su tutte le parti interessate, al fine di definire obiettivi e piani di azione per il loro raggiungimento.

Questo paradigma di lavoro aziendale deve essere indubbiamente documentato e deve essere supportato da:

  • sviluppo di competenze pertinenti su una parte più ampia possibile della popolazione;
  • sviluppo di awareness degli stakeholder interni ed esterni attraverso una comunicazione continua con loro.

Le prestazioni del modello di governo definito devono, in ultimo, essere monitorate attraverso audit interni sulle parti rilevanti e momenti di riesame in cui è coinvolta l’alta direzione.

Lo Standard è, come detto, uno standard di requisiti del sistema di gestione, quindi certificabile.

Gli Enti di Certificazione hanno riscontrato, fin dai primi giorni dalla pubblicazione della norma, grande interesse verso questo standard e si sono mossi con celerità nella definizione degli schemi di certificazione da accreditare presso Accredia per avviare le attività certificative.

Al momento della redazione del presente articolo i numeri delle aziende che stanno adottando questo paradigma non sono ancora noti in quanto il processo di definizione, da parte degli Enti, degli schemi di certificazione e il loro successivo accreditamento sono ancora in corso.

Pur in assenza di numeri che delineino il fenomeno, la sensazione del mercato è che questo strumento della normazione stia riscontrando l’attenzione attesa e che i benefici per i quali è nato siano percepiti tali dal mercato.

La nostra società è in prima linea nel supportare le organizzazioni nel disegno e nell’implementazione di sistemi di governo dell’intelligenza artificiale, con alcuni casi pioneristici all’attivo.

In particolare, nell’intervenire capitalizziamo le pratiche manageriali già presenti in azienda al fine di conferire, alla gestione del rischio specifico per l’intelligenza artificiale, sistematicità e piena integrazione nella governance aziendale.

Da sapere

Requisiti Innovation Manager nella norma UNI 11814

Requisiti Innovation Manager nella norma UNI 11814

Innovation Manager, i requisiti professionali posti dalla norma UNI 11814 ne definiscono la professione e le modalità con cui diventarlo.
Articolo
ISO 56000 per il governo dell'innovazione

ISO 56000 per il governo dell'innovazione

Serie di Standard ISO 56000: struttura della serie, importanza per l’impresa, pregiudizi da abbandonare e nuove professioni dell’innovazione.
Articolo
ISO 56001, requisiti di gestione dell'innovazione

ISO 56001, requisiti di gestione dell'innovazione

Obiettivi dello Standard ISO 56001, perché è utile e quali scenari abilita per le imprese e per i professionisti.
Articolo
Chief Innovation Officer: chi è e come lo si diventa

Chief Innovation Officer: chi è e come lo si diventa

Chief Innovation Officer: chi è, nelle sue declinazioni in funzione del contesto aziendale e come si diventa leader dell’innovazione aziendale.
Articolo
Certificazione ISO 56002: è possibile ottenerla?

Certificazione ISO 56002: è possibile ottenerla?

Cosa si intende per certificazione ISO 56002 e come muoversi con la giusta misura nel mondo delle certificazioni di innovazione.
Articolo
ISO 56002: lo standard per l'innovazione aziendale

ISO 56002: lo standard per l'innovazione aziendale

Cosa è lo Standard ISO 56002, perché utilizzarlo come riferimento e come comprenderne a fondo il valore.
Articolo