Pr¨¢cticas de IA responsables
IA concebida con responsabilidad: soluciones de confianza
Desarrollamos funcionalidades de IA concebidas de forma responsable, empoderando a nuestros clientes con las herramientas y capacidades que necesitan para implementar, configurar y utilizar la IA con confianza para alcanzar sus objetivos.
IA responsable en Âé¶¹´«Ã½
Âé¶¹´«Ã½ es l¨ªder del sector en el gobierno de la IA responsable y queremos que nuestra IA tenga una influencia positiva. Por eso evaluamos y gestionamos a fondo los riesgos de la IA. Nuestro equipo colabora en todo Âé¶¹´«Ã½ para garantizar que nuestra IA se cree respetando los derechos humanos y la seguridad, y beneficie realmente a la sociedad mediante la implementaci¨®n de una IA responsable desde el dise?o.
Nos hemos asociado de forma proactiva con Coalfire, l¨ªder en ciberseguridad, para evaluar nuestros en relaci¨®n con el Marco de Gesti¨®n de Riesgos de IA del NIST, y con Schellman para certificar nuestro programa seg¨²n las normas ISO 42001. Estas evaluaciones independientes validan nuestro compromiso con las normas m¨¢s estrictas de IA responsable, incluidos los controles de seguridad y privacidad de la IA.
Evaluaci¨®n s¨®lida del riesgo
Cuando hablamos de riesgos para los derechos y la seguridad de las personas, no todas las IA son iguales. Nuestro primer paso es siempre evaluar cuidadosamente los riesgos. Esto nos ayuda a centrarnos en ¨¢reas de inter¨¦s potencial, garantizando que la totalidad de nuestra IA, ya sea para clientes o para nuestros propios equipos, sea responsable y ¨¦tica.
Hay m¨²ltiples puntos de control en el camino, y revisamos nuestros casos de uso de IA al menos dos veces: una mientras la estamos dise?ando y otra antes de implementarla. Esto nos ayuda a detectar posibles problemas desde el principio. A continuaci¨®n, creamos planes claros para gestionar esos problemas, dependiendo de si somos nosotros quienes desarrollamos la IA o quienes la implementamos.
?
C¨®mo evaluamos el riesgo
El nivel viene determinado por una serie de factores, como la capacidad del producto para realizar predicciones o categorizaciones relativas a empleados individuales, su potencial para influir primaria o secundariamente en sus oportunidades econ¨®micas, y aspectos adicionales relacionados con las caracter¨ªsticas o el contexto de la IA que se utiliza. En esta evaluaci¨®n, tambi¨¦n tenemos en cuenta el "riesgo inaceptable", para identificar los casos de uso que quedan fuera de nuestra estructura de gobierno aprobada debido al da?o potencial causado a las personas o a las amenazas a los derechos humanos fundamentales.
Cada nivel de riesgo se asigna a un conjunto espec¨ªfico de protocolos, o normas, para mitigar esos riesgos. Las funcionalidades de IA de mayor riesgo est¨¢n sujetas a requisitos m¨¢s rigurosos y a un mayor n¨²mero de protocolos. As¨ª se garantiza que el nivel de supervisi¨®n sea proporcional a los riesgos potenciales que entra?a la utilizaci¨®n del producto.
Tanto si dise?amos la IA como si la utilizamos, nuestras evaluaciones se adaptan seg¨²n corresponda. Esto nos ayuda a anticiparnos, detectar posibles problemas y garantizar que nuestra IA se desarrolle y utilice de forma segura y responsable. Nuestras pol¨ªticas internas definen con m¨¢s detalle los casos de uso de IA inaceptables, los roles y las responsabilidades, y esbozan el momento y los requisitos espec¨ªficos para llevar a cabo la evaluaci¨®n de riesgos del gobierno de la IA responsable.
Nuestro compromiso con la IA responsable
El uso responsable de la IA es un proceso continuo. Nos comprometemos a supervisar continuamente la evoluci¨®n de las tendencias normativas, las expectativas de la sociedad y los marcos de mejores pr¨¢cticas. Nuestro equipo sigue desarrollando activamente sus pr¨¢cticas y programas para garantizar que nuestro enfoque del desarrollo y la implementaci¨®n de la IA siga siendo justo, fiable, ¨¦tico y alineado con las normas m¨¢s estrictas de la IA responsable.?
Nos regimos por marcos de gobierno de IA, como el Marco de Gesti¨®n de Riesgos de IA del NIST (AI RMF). Tambi¨¦n evaluamos constantemente las normativas vigentes y en desarrollo en relaci¨®n con nuestro programa y pr¨¢cticas de gobierno de IA responsable, como la Ley de IA de la UE, la Ley de IA de Colorado y otras normativas y marcos de orientaci¨®n estatales, locales, nacionales e internacionales.?
En Âé¶¹´«Ã½ damos prioridad a la transparencia, proporcionando informaci¨®n clara y ¨²til a la hora de tomar decisiones. A continuaci¨®n, describimos los protocolos clave de IA responsable que hemos adoptado para un gobierno basado en el riesgo en nuestro ciclo de vida de IA, que compartimos con nuestros equipos de desarrollo e implementaci¨®n de IA en funci¨®n del nivel de riesgo del caso de uso, como se ha descrito anteriormente.
IA y responsabilidad
Identificaci¨®n de riesgos
Descripci¨®n del desarrollo
Identificar y evaluar de forma proactiva el nivel de riesgo del producto o funcionalidad en su conjunto.
?
Esto incluye los riesgos ¨¦ticos, sociales y t¨¦cnicos inherentes al caso de uso previsto y a las caracter¨ªsticas de la funcionalidad de IA, lo que nos permite mitigar los posibles da?os posteriores antes de que se produzcan.
?
Lo hacemos no solo para comprender los da?os potenciales, sino para ver las posibles ventajas de hacer las cosas bien y de una metodolog¨ªa para ofrecer funcionalidades de forma segura con ese fin.
Descripci¨®n de la implementaci¨®n?
Similar al desarrollo
Roles y responsabilidades
Descripci¨®n del desarrollo
Definir claramente los roles y responsabilidades de los diferentes equipos que participan en el desarrollo de funcionalidades de IA, como el equipo de Producto y °Õ±ð³¦²Ô´Ç±ô´Ç²µ¨ª²¹, Ingenier¨ªa de ML, Sector Legal y de Cumplimiento Normativo, y Privacidad, entre otros. Esto garantiza la adjudicaci¨®n de responsabilidades, la colaboraci¨®n y la diversidad de contribuciones a lo largo del ciclo de vida del desarrollo de la IA.
?
Adem¨¢s, hace crecer org¨¢nicamente la red de expertos a los que se puede recurrir para realizar preguntas y obtener asistencia cuando los nuevos equipos se enfrentan a la estructura de gobierno.
?
Por ¨²ltimo, esto facilita contribuciones estructuradas al marco de gobierno de IA responsable a medida que se identifican nuevos casos at¨ªpicos y la empresa evoluciona, cambia y crece.
?
Descripci¨®n de la implementaci¨®n
Similar al desarrollo
Pruebas de utilidad
Descripci¨®n del desarrollo
Recopilar y documentar informaci¨®n que demuestre la utilidad de la funcionalidad de IA. Debe mostrar c¨®mo la funcionalidad cumple su objetivo y aporta valor a los usuarios.
?
Dicho de otro modo, ?aporta la funcionalidad de IA un valor a?adido significativo para los usuarios?
?
Descripci¨®n de la implementaci¨®n
Similar al desarrollo
Transparencia y explicabilidad
Explicabilidad
Descripci¨®n del desarrollo
Explicar claramente c¨®mo funciona la funcionalidad de IA y c¨®mo se obtienen sus resultados. Esto puede incluir documentaci¨®n para los clientes, como fichas informativas sobre IA, descripciones de la interfaz de usuario y otros m¨¦todos para promover la transparencia y la comprensi¨®n de los datos que se utilizan para generar los resultados.
?
Descripci¨®n de la implementaci¨®n
Similar al desarrollo
Interpretaciones
Descripci¨®n del desarrollo
Trabajar para que los resultados de las funcionalidades de IA sean lo m¨¢s comprensibles y claros posible para clientes y usuarios.
?
Proporcionar explicaciones claras y materiales complementarios en las fichas informativas de IA para ayudar a los clientes y usuarios finales a comprender el significado y las implicaciones de los resultados de la IA en el contexto de los casos de uso previstos.
?
Descripci¨®n de la implementaci¨®n
Similar al desarrollo
Avisos
Descripci¨®n del desarrollo
Dise?ar la funcionalidad de IA con avisos claros y accesibles que informen a los usuarios finales de que est¨¢n interactuando con un sistema de IA.?
?
Proporcionar orientaci¨®n y un lenguaje predeterminado que los clientes puedan utilizar para describir el tipo de datos procesados por la funcionalidad de IA.?
?
El aviso puede aparecer mediante textos o gr¨¢ficos que indiquen que la funcionalidad utiliza IA y que el resultado debe considerarse teni¨¦ndolo en cuenta.??
?
Descripci¨®n de la implementaci¨®n
Similar al desarrollo
Dise?o y control centrados en las personas
IA con participaci¨®n humana
Descripci¨®n del desarrollo
Dise?ar la funcionalidad de IA de modo que pueda ser supervisada y controlada por las personas. Facilitamos documentaci¨®n a los clientes en la que se explica c¨®mo los resultados de las funcionalidades de IA est¨¢n pensados para asistir, no para sustituir, la toma de decisiones humanas consecuentes.?
?
La funcionalidad tambi¨¦n debe incorporar una experiencia de usuario pr¨¢ctica en la que el ser humano sea el responsable final de las decisiones clave, tanto si se aceptan como si se ajustan los resultados de la funcionalidad, y debe estar reforzada por normas de explicabilidad en sus resultados.
?
Descripci¨®n de la implementaci¨®n
Similar al desarrollo
Procedimientos alternativos
Descripci¨®n del desarrollo
Dise?ar la funcionalidad de IA de modo que, cuando sea necesario, se permitan procedimientos alternativos de procesamiento de datos, por ejemplo, a trav¨¦s de la revisi¨®n humana. Proporcionar instrucciones claras y documentaci¨®n a los clientes sobre c¨®mo aplicar estos procedimientos alternativos.
?
Descripci¨®n de la implementaci¨®n
Garantizar que los interesados tengan la opci¨®n, en la interfaz de usuario o en cualquier otro lugar (como las comunicaciones), de solicitar procedimientos alternativos a los de la soluci¨®n de IA que procesa sus datos y presenta resultados individualizados. Por ejemplo, se podr¨ªa ofrecer una revisi¨®n humana en lugar de solo una revisi¨®n de una m¨¢quina.
±õ²Ô³¦±ô³Ü²õ¾±¨®²Ô
Descripci¨®n del desarrollo
Dise?ar la funcionalidad de IA teniendo en cuenta la inclusi¨®n, garantizando que sea accesible y utilizable por diversos usuarios finales. Tener en cuenta factores como el idioma, la cultura, la discapacidad y otras posibles barreras al acceso y la implicaci¨®n. Garantizar que la calidad de la experiencia de usuario no se vea mermada, independientemente de las capacidades o preferencias.??
?
Descripci¨®n de la implementaci¨®n
Garantizar que la soluci¨®n de IA ofrezca opciones razonables dentro de la interfaz de usuario de dicha soluci¨®n. Esto permite a diversos usuarios finales acceder a ella y utilizarla de formas que promueven la equidad.
Exportaciones integradas de forma nativa
Descripci¨®n del desarrollo
Ofrecer opciones a los clientes para acceder a los datos exportados pertinentes de la funcionalidad de IA. Esto permite a los clientes realizar su propio seguimiento y pruebas junto con sus propios expertos, promoviendo la transparencia y el control.??
?
Descripci¨®n de la implementaci¨®n
Garantizar que el equipo que configura el producto reciba instrucciones suficientes para especificar las opciones de acceso y exportaci¨®n de los datos de salida de la soluci¨®n de IA necesarios para comprobar el desempe?o de dicha soluci¨®n.
Configurabilidad
Descripci¨®n del desarrollo
Dise?ar la funcionalidad de IA teniendo en cuenta la configurabilidad, para que los clientes puedan adaptarla a sus necesidades y preferencias. Proporcionar documentaci¨®n y herramientas claras para asistir al cliente en sus decisiones de configuraci¨®n. Esto sigue el esp¨ªritu de los protocolos anteriores, manteniendo a las personas en el centro de todas las decisiones, incluida la forma en que deciden involucrarse con las funcionalidades de la plataforma de IA de Âé¶¹´«Ã½.
?
Descripci¨®n de la implementaci¨®n
Configurar la soluci¨®n de IA para que se ajuste a los casos de uso locales previstos.
Pruebas y supervisi¨®n
Pruebas de imparcialidad
Descripci¨®n del desarrollo
Realizar pruebas de imparcialidad en la funcionalidad de IA. Para el desarrollo, esto puede lograrse utilizando datos sint¨¦ticos o muestras agregadas de resultados, en funci¨®n de la disponibilidad. Analizar los resultados en busca de posibles sesgos y documentar las conclusiones y las estrategias de mitigaci¨®n. En nuestras fichas informativas de la funcionalidad de IA incluimos un resumen descriptivo de las pruebas de imparcialidad realizadas por los desarrolladores.
?
Descripci¨®n de la implementaci¨®n
Para la implementaci¨®n, considerar la posibilidad de utilizar resultados de funcionalidades reales siempre que sea posible.
Eficacia
Descripci¨®n del desarrollo
Realizar pruebas rigurosas de la funcionalidad de IA para garantizar que sus resultados sean los previstos y que sean fiables para su prop¨®sito y la calidad del caso de uso. Documentar la metodolog¨ªa y los resultados de las pruebas, demostrando la capacidad de la IA para producir resultados precisos.??
?
Descripci¨®n de la implementaci¨®n
Similar al desarrollo
Solidez
Descripci¨®n del desarrollo
Probar la capacidad de la funcionalidad de IA para mantener el desempe?o en diversas condiciones, como diferentes datos de entrada, ajustes del usuario y poblaciones. Documentar los procedimientos y los resultados de las pruebas, demostrando la capacidad de la IA para mantener el desempe?o en distintos escenarios.
?
Descripci¨®n de la implementaci¨®n
Similar al desarrollo
Pruebas programadas
Descripci¨®n del desarrollo
Desarrollar y mantener un calendario regular de pruebas y supervisi¨®n de la funcionalidad de IA, incluida la precisi¨®n, solidez, utilidad e imparcialidad. Definir, aplicar y documentar la frecuencia y los procedimientos de las pruebas.
?
Descripci¨®n de la implementaci¨®n
Similar al desarrollo
Normas de mantenimiento
Descripci¨®n del desarrollo
Establecer normas y procedimientos claros para el mantenimiento y la actualizaci¨®n continuos de la funcionalidad de IA y sus modelos de ML subyacentes. Definir los criterios para determinar cu¨¢ndo es necesario realizar actualizaciones y c¨®mo se aplicar¨¢n y comunicar¨¢n.
?
Descripci¨®n de la implementaci¨®n
Documentar las normas que deben utilizarse para determinar cu¨¢ndo y si la soluci¨®n de IA o su configuraci¨®n deben actualizarse o reevaluarse.
Privacidad y seguridad
Calidad de los datos
Descripci¨®n del desarrollo
Garantizar que los datos utilizados para desarrollar la funcionalidad de IA sean de gran calidad, adecuados para los casos de uso previstos y representativos de las poblaciones pertinentes. Esto debe demostrarse a trav¨¦s de pr¨¢cticas de documentaci¨®n transparentes, como nuestras fichas informativas de la funcionalidad de IA.
?
Descripci¨®n de la implementaci¨®n
Similar al desarrollo
Trazabilidad
Descripci¨®n del desarrollo
Dise?ar la funcionalidad de IA de modo que respalde las capacidades de trazabilidad y supervisi¨®n del sistema.
?
Descripci¨®n de la implementaci¨®n
Garantizar la existencia de un mecanismo que respalde la supervisi¨®n y trazabilidad del sistema.
Exclusi¨®n de ubicaci¨®n
Descripci¨®n del desarrollo
Proporcionar a los clientes la posibilidad de controlar la disponibilidad geogr¨¢fica de la funcionalidad de IA. Esto permite a los clientes cumplir con las leyes y normativas locales para gestionar la disponibilidad de la funcionalidad de IA en diferentes regiones.
?
Descripci¨®n de la implementaci¨®n
Similar al desarrollo
Actualizaci¨®n y retirada
Descripci¨®n del desarrollo
Desarrollar un plan integral de gesti¨®n del cambio para las actualizaciones de la funcionalidad de IA y sus modelos de ML subyacentes. Esta planificaci¨®n debe incluir protocolos de comunicaci¨®n para informar a los clientes sobre las actualizaciones y cualquier posible repercusi¨®n en el uso que hagan de la funcionalidad.
?
Descripci¨®n de la implementaci¨®n
Desarrollar y documentar un plan espec¨ªfico de gesti¨®n del cambio para las actualizaciones de la soluci¨®n de IA o su configuraci¨®n.
Gesti¨®n de la eficacia
Descripci¨®n del desarrollo
Dise?ar la funcionalidad de IA con medidas de protecci¨®n para mitigar posibles vulnerabilidades y riesgos para su eficacia. Esto incluye la protecci¨®n contra ataques antag¨®nicos, envenenamiento de datos y otros intentos de explotar o socavar el sistema de IA.
?
Descripci¨®n de la implementaci¨®n
Garantizar que se identifiquen, gestionen y mitiguen las vulnerabilidades ante errores humanos de los usuarios finales y agentes malintencionados que intenten "explotar" o poner en peligro la soluci¨®n de IA o la seguridad de nuestra propiedad intelectual.