Pratiche di AI responsabile
AI sviluppata in modo responsabile: soluzioni di cui ti puoi fidare
Sviluppiamo funzionalit¨¤ AI in modo responsabile a partire dalla fase di progettazione, fornendo ai nostri clienti gli strumenti e le capacit¨¤ di cui hanno bisogno per implementare, configurare e utilizzare l'AI in tutta sicurezza in modo che possano raggiungere i loro obiettivi.
AI responsabile in Âé¶¹´«Ã½
Âé¶¹´«Ã½ ¨¨ leader nella governance dell'AI responsabile (RAI) e vogliamo che la nostra AI diffonda un approccio etico. Ecco perch¨¦ ¨¨ importante valutare e gestire attentamente i rischi dell'AI. La collaborazione all'interno del team Âé¶¹´«Ã½ garantisce che l'AI sia progettata per rispettare i diritti umani e la sicurezza e apportare reali benefici alla societ¨¤. Ecco perch¨¦ ci assicuriamo che la nostra AI sia responsabile fin dalla fase di progettazione.
Abbiamo proattivamente creato una partnership con Coalfire, leader nella sicurezza informatica, per valutare i nostri in base al NIST AI Risk Management Framework e con Schellman per certificare il nostro programma secondo gli standard ISO 42001. Queste valutazioni indipendenti confermano il nostro impegno nei confronti dei pi¨´ elevati standard di AI responsabile, compresi i controlli per la sicurezza e la privacy.
Valutazione dei rischi affidabile
Non tutte le AI sono uguali quando si tratta di rischi per i diritti e la sicurezza delle persone. Il nostro primo passo ¨¨ sempre un'attenta valutazione dei rischi. Questo ci aiuta a concentrarci sulle aree potenzialmente problematiche, per garantire che la nostra AI sia totalmente responsabile ed etica per i clienti e per il nostro team.
Ci sono diversi punti di controllo lungo il percorso e rivediamo gli use case dell'AI almeno due volte: una volta mentre la sviluppiamo e un'altra prima che venga utilizzata. Questo ci aiuta a individuare tempestivamente eventuali problemi. Quindi creiamo piani chiari per gestire tali problematiche, a seconda della fase di cui ci stiamo occupando: sviluppo o implementazione.
?
Come valutiamo il rischio
Il livello ¨¨ determinato da fattori quali la capacit¨¤ del prodotto di effettuare previsioni o categorizzazioni relative ai singoli collaboratori, il suo potenziale impatto primario o secondario sulle loro opportunit¨¤ economiche e aspetti aggiuntivi correlati alle caratteristiche o al contesto dell'AI utilizzata. In questa valutazione teniamo conto anche del "rischio inaccettabile" per identificare gli use case che non rientrano nella nostra struttura di governance approvata a causa di potenziali danni alle persone o di minacce ai diritti umani fondamentali.
Ogni livello di rischio ¨¨ associato a un insieme specifico di protocolli o standard per la riduzione del rischi. Le funzionalit¨¤ AI a rischio pi¨´ elevato sono soggette a requisiti pi¨´ rigorosi e a un numero maggiore di protocolli. Ci¨° garantisce che il livello di supervisione sia proporzionato ai potenziali rischi connessi all'utilizzo del prodotto.
Che si tratti di sviluppare l'AI o di utilizzarla, le nostre valutazioni sono personalizzate in base alle esigenze. Questo ci aiuta a guardare avanti, a individuare tempestivamente potenziali problemi e a garantire che la nostra AI venga sviluppata e utilizzata in modo sicuro e responsabile. Le nostre politiche interne definiscono ulteriormente gli use case inaccettabili dell'AI, nonch¨¦ i ruoli e le responsabilit¨¤ di questa, e delineano i tempi e i requisiti specifici per condurre la valutazione dei rischi dell'AI responsabile.
Il nostro impegno per un'AI responsabile
L'uso responsabile dell'AI ¨¨ un processo infinito. Ci impegniamo a monitorare costantemente l'evoluzione delle tendenze normative, delle aspettative della societ¨¤ e dei framework di best practice. Il nostro team continua a sviluppare attivamente le proprie pratiche e i propri programmi per garantire che il nostro approccio allo sviluppo e all'implementazione dell'AI rimanga equo, affidabile, etico e allineato ai pi¨´ elevati standard di AI responsabile.?
Ci basiamo su framework di governance dell'AI come il NIST AI Risk Management Framework (AI RMF). Ci impegniamo inoltre nella valutazione continua delle normative attuali e in via di sviluppo in base al nostro programma e alle nostre pratiche RAI, tra cui l'EU AI Act, l'AI Act del Colorado e altre normative e quadri normativi emergenti a livello statale, locale, nazionale e internazionale.?
In Âé¶¹´«Ã½ diamo priorit¨¤ alla trasparenza, fornendo informazioni chiare a supporto del processo decisionale. Di seguito forniamo la descrizione dei principali protocolli per un'AI responsabile che abbiamo adottato per una governance basata sul rischio nel ciclo di vita della nostra AI. Tali protocolli sono condivisi con i nostri team di sviluppo e implementazione dell'AI in base al livello di rischio dello use case, come descritto sopra.
Responsabilit¨¤ legate all'AI
Identificazione dei rischi
Sviluppo
Identificare e valutare in modo proattivo il livello di rischio del prodotto o della funzionalit¨¤ nel suo complesso.
?
Questa fase riguarda i rischi etici, sociali e tecnici inerenti allo use case previsto e alle caratteristiche della funzionalit¨¤ AI, in modo da mitigare potenziali danni a valle in produzione prima che si verifichino.
?
Facciamo questo non solo per comprendere i potenziali danni, ma anche i possibili vantaggi che potrebbero derivare da una corretta esecuzione di questa fase, e per individuare un percorso finalizzato a fornire le funzionalit¨¤ necessarie in modo sicuro a tale scopo.
Implementazione?
Simile allo sviluppo.
Ruoli e responsabilit¨¤
Sviluppo
Definire chiaramente i ruoli e le responsabilit¨¤ dei diversi team coinvolti nello sviluppo delle funzionalit¨¤ AI, ad esempio Product & Technology, ML Engineering, Legal and Compliance, Privacy e altri. Ci¨° garantisce responsabilit¨¤, collaborazione e diversity a livello di input durante tutto il ciclo di sviluppo dell'AI.
?
Inoltre, viene ampliata in modo organico la rete di esperti a cui i nuovi team che si muovono all'interno della struttura di governance possono rivolgersi per porre domande e richiedere assistenza.
?
Infine, questo garantisce un contributo strutturato al framework di governance RAI man mano che vengono identificati nuovi casi limite e che l'attivit¨¤ si sposta, cambia e cresce.
?
Implementazione
Simile allo sviluppo.
Prova di utilit¨¤
Sviluppo
Raccogliere e documentare informazioni che dimostrino l'utilit¨¤ della funzionalit¨¤ AI. Ci¨° dovrebbe mostrare in che modo la funzionalit¨¤ raggiunge lo scopo previsto e fornisce valore agli utenti.
?
In altre parole, la funzionalit¨¤ AI aggiunge un valore significativo per gli utenti?
?
Implementazione
Simile allo sviluppo.
Trasparenza e comprensibilit¨¤
°ä´Ç³¾±è°ù±ð²Ô²õ¾±²ú¾±±ô¾±³Ù¨¤
Sviluppo
Offrire spiegazioni chiare su come funziona la funzionalit¨¤ AI e su come vengono ottenuti i relativi output. Questo pu¨° prevedere documentazione per i clienti, come schede informative sull'AI, descrizioni di interfacce utente e altri metodi per promuovere la trasparenza e la comprensione dei dati utilizzati per generare gli output.
?
Implementazione?
Simile allo sviluppo.
±õ²Ô³Ù±ð°ù±è°ù±ð³Ù²¹²ú¾±±ô¾±³Ù¨¤
Sviluppo
Impegnarsi per rendere i risultati delle funzionalit¨¤ AI il pi¨´ comprensibili e chiari possibile per clienti e utenti.
?
Fornire spiegazioni chiare e materiali di supporto all'interno delle schede informative sull'AI per aiutare i clienti e gli utenti finali a comprendere il significato e le implicazioni degli output dell'AI nel contesto degli use case previsti.
?
Implementazione?
Simile allo sviluppo.
Avvisi
Sviluppo
Progettare la funzionalit¨¤ AI con avvisi chiari e accessibili che informino gli utenti finali che stanno interagendo con un sistema AI.?
?
Fornire indicazioni e un linguaggio predefinito che i clienti possano utilizzare per descrivere il tipo di dati elaborati dalla funzionalit¨¤ AI.?
?
L'avviso pu¨° essere un testo o un'immagine che indica che la funzionalit¨¤ utilizza l'AI e che il suo output deve essere considerato di conseguenza.??
?
Implementazione?
Simile allo sviluppo.
Design e controllo incentrati sulle persone
Approccio human-in-the-loop
Sviluppo
Progettare la funzionalit¨¤ AI per supportare la supervisione e il controllo umani. Forniamo ai clienti la documentazione che spiega come gli output delle funzionalit¨¤ AI siano concepiti per supportare, e non sostituire, il successivo processo decisionale umano.?
?
La funzionalit¨¤ dovrebbe inoltre incorporare un'esperienza utente pratica in cui gli esseri umani siano i decision maker finali per le decisioni critiche, indipendentemente dal fatto che i risultati della funzionalit¨¤ vengano accettati o modificati, con il supporto degli standard di comprensibilit¨¤ nei relativi output.
?
Implementazione?
Simile allo sviluppo.
Procedure alternative
Sviluppo
Progettare la funzionalit¨¤ AI in modo da consentire procedure di elaborazione dati, come la revisione umana, alternative all'elaborazione standard della funzionalit¨¤ AI, quando appropriato. Fornire ai clienti istruzioni e documentazione chiare su come implementare queste procedure alternative.
?
Implementazione?
Fare in modo che ai soggetti interessati venga offerta la possibilit¨¤, nell'interfaccia utente o altrove (ad esempio nelle comunicazioni ai soggetti interessati), di richiedere procedure alternative a quelle della soluzione AI che elabora i loro dati e produce risultati personalizzati. Questo potrebbe includere una revisione umana anzich¨¦ una revisione esclusivamente automatizzata.
±õ²Ô³¦±ô³Ü²õ¾±±¹¾±³Ù¨¤
Sviluppo
Progettare la funzionalit¨¤ AI tenendo presente l'inclusivit¨¤, assicurando che sia accessibile e utilizzabile da diversi utenti finali e considerando fattori quali la lingua, la cultura, lo stato di disabilit¨¤ e altri potenziali ostacoli all'accesso e al coinvolgimento. Impegnarsi a garantire che la qualit¨¤ dell'esperienza utente non venga compromessa, indipendentemente dalle capacit¨¤ e/o dalle preferenze.??
?
Implementazione?
Assicurarsi che la soluzione AI offra una gamma ragionevolmente ampia di scelte all'interno della relativa interfaccia utente. Ci¨° consente agli utenti finali dalle capacit¨¤ pi¨´ diverse di accedervi e usarla in modi che promuovono l'equit¨¤.
Esportazioni incorporate
Sviluppo
Offrire ai clienti opzioni per accedere ai dati esportati pertinenti dalla funzionalit¨¤ AI. Ci¨° consente ai clienti di effettuare il monitoraggio e i test in autonomia insieme ai propri esperti, garantendo trasparenza e controllo.??
?
Implementazione?
Assicurarsi che vengano fornite istruzioni sufficienti al team che configura il prodotto per l'uso nell'ambito della descrizione delle opzioni per l'accesso e l'esportazione di dati di output della soluzione AI necessari per testare le performance della soluzione.
°ä´Ç²Ô´Ú¾±²µ³Ü°ù²¹²ú¾±±ô¾±³Ù¨¤
Sviluppo
Progettare la funzionalit¨¤ AI tenendo conto della configurabilit¨¤, garantendo ai clienti la possibilit¨¤ di adattarne le funzionalit¨¤ alle proprie esigenze e preferenze specifiche. Fornire documentazione e strumenti chiari per supportare le decisioni del cliente relative alla configurazione. Questo ¨¨ in linea con lo spirito dei protocolli descritti in precedenza: le persone devono essere al centro di tutte le decisioni, inclusa quella sulla modalit¨¤ di partecipazione alle funzionalit¨¤ della piattaforma Âé¶¹´«Ã½ AI.
?
Implementazione?
Configurare la soluzione AI in modo che si adatti agli use case locali previsti.
Test e monitoraggio
Test di equit¨¤
Sviluppo
Eseguire test di equit¨¤ sulla funzionalit¨¤ AI. Per lo sviluppo, ci¨° pu¨° essere realizzato utilizzando dati sintetici o campioni aggregati di output, a seconda della disponibilit¨¤. Analizzare i risultati per individuare potenziali distorsioni e documentare i risultati e le strategie di mitigazione. Dove rilevante, nelle nostre schede informative sulle funzionalit¨¤ AI includiamo un riepilogo descrittivo dei test di equit¨¤ effettuati dagli sviluppatori.
?
Implementazione?
Per l'implementazione, valutare l'utilizzo di output di funzionalit¨¤ reali, se disponibili.
Efficacia
Sviluppo
Testare rigorosamente la funzionalit¨¤ AI per garantire che i suoi output siano intenzionali e affidabili rispetto allo scopo e alla qualit¨¤ dello use case. Documentare la metodologia e i risultati dei test, dimostrando la capacit¨¤ dell'AI di produrre output accurati.??
?
Implementazione?
Simile allo sviluppo.
³§´Ç±ô¾±»å¾±³Ù¨¤
Sviluppo
Testare la capacit¨¤ della funzionalit¨¤ AI di mantenere costanti le performance in diverse condizioni, ad esempio nel caso di dati di input, impostazioni utente o popolazioni diverse. Documentare le procedure e i risultati dei test, dimostrando la capacit¨¤ dell'AI di mantenere costanti le performance in diversi scenari.
?
Implementazione?
Simile allo sviluppo.
Test pianificati
Sviluppo
Sviluppare e mantenere una pianificazione regolare per testare e monitorare le performance delle funzionalit¨¤ AI , tra cui accuratezza, solidit¨¤, utilit¨¤ ed equit¨¤. Definire, implementare e documentare la frequenza e le procedure dei test.
?
Implementazione?
Simile allo sviluppo.
Standard di manutenzione
Sviluppo
Stabilire standard e procedure chiari per la manutenzione ordinaria e l'aggiornamento della funzionalit¨¤ AI e dei modelli di apprendimento automatico sottostanti. Definire criteri per stabilire quando sono necessari gli aggiornamenti e come verranno implementati e comunicati.
?
Implementazione?
Usare standard documentali per determinare quando e se la soluzione AI o la sua configurazione debbano essere aggiornate e/o rivalutate.
Privacy e sicurezza
Qualit¨¤ dei dati
Sviluppo
Assicurarsi che i dati utilizzati per sviluppare la funzionalit¨¤ AI siano di alta qualit¨¤, appropriati per gli use case previsti e rappresentativi delle popolazioni interessate. Questo pu¨° essere dimostrato attraverso pratiche di documentazione trasparenti, come le nostre schede informative sulle funzionalit¨¤ AI.
?
Implementazione?
Simile allo sviluppo.
°Õ°ù²¹³¦³¦¾±²¹²ú¾±±ô¾±³Ù¨¤
Sviluppo
Progettare la funzionalit¨¤ AI per supportare le capacit¨¤ di monitoraggio e tracciabilit¨¤ del sistema.
?
Implementazione?
Assicurarsi che sia in atto un meccanismo che supporti il monitoraggio e la tracciabilit¨¤ del sistema.
Esclusione di aree geografiche
Sviluppo
Offrire ai clienti la possibilit¨¤ di controllare la disponibilit¨¤ geografica della funzionalit¨¤ AI. Ci¨° consente ai clienti di rispettare le leggi e le normative locali per gestire la disponibilit¨¤ della funzionalit¨¤ AI in diverse aree geografiche.
?
Implementazione?
Simile allo sviluppo.
Aggiornamento e revoca
Sviluppo
Sviluppare un piano completo di gestione del cambiamento per gli aggiornamenti della funzionalit¨¤ AI e dei modelli di machine learning sottostanti. Questo piano dovrebbe includere protocolli di comunicazione per informare i clienti sugli aggiornamenti e su qualsiasi potenziale impatto sul loro utilizzo della funzionalit¨¤.
?
Implementazione?
Sviluppare e documentare un piano di gestione del cambiamento specifico per gli aggiornamenti della soluzione AI o della sua configurazione.
Gestione dell'efficacia
Sviluppo
Progettare la funzionalit¨¤ AI con misure di sicurezza per mitigare potenziali vulnerabilit¨¤ e rischi per la sua efficacia. Ci¨° include la protezione da attacchi di avversari, avvelenamento dei dati e altri tentativi di sfruttare o indebolire il sistema AI.
?
Implementazione?
Garantire che le vulnerabilit¨¤ dovute all'errore umano dell'utente finale e ai malintenzionati che cercano di "manipolare" o mettere a rischio in altro modo la soluzione AI o la sicurezza della nostra propriet¨¤ intellettuale siano identificate, mitigate e gestite.