Inteligencia artificial confiable (Trustworthy AI)
Tiempo de lectura estimado: 8 minutos
Esta conferencia magistral pertenece al Módulo 12 "IA y Seguridad" de C1b3rWall Academy 2021/2022. El objetivo de la misma es conocer mejor la inteligencia artificial, qué debe preocuparnos sobre ella y aproximarse a la detección de sesgos.
¿Debe preocuparnos la ética de la inteligencia artificial?
El concepto básico al que se refiere la IA es la capacidad de un ordenador para planificar, razonar y aprender, percibir y construir conocimiento y comunicarse con lenguaje humano.
La inteligencia artificial parte, como base, de datos que alimentan a un modelo. Este modelo arroja resultados a partir de los datos, y mientras otros datos existan, más probabilidad tendrá el modelo de ser preciso en sus outputs o predicciones. Se introducen una serie de riesgos en los sistemas. Propios de la inteligencia artificial hay los relativos a:
- Precisión del sistema (accuracy).
- Sesgos (prejuicio).
- Calidad y estandarización del dato.
- Replicabilidad, explicabilidad y transparencia.
- Privacidad y ciber.
- Sistémico (dependencia de terceros).
- Responsabilidad civil y regulatoria.
Artificial Intelligence Act
Desde la Unión Europea se han publicado las guías consultivas de lo que será la regulación para poner orden en el uso de la inteligencia artificial. Pese a que la publicación se realizó en abril de 2021, todavía queda un largo proceso hasta que entre en vigor y se aplique.
Este Artificial Intelligence Act tiene su origen en las guías éticas del desarrollo de inteligencias artificiales confiables en 2019. Lo novedoso es que se trata de una regulación muy enfocada y, dentro de ella, cabe destacar dos ámbitos que engloban a las inteligencias artificiales de mayor riesgo:
- Sistemas de inteligencia artificial prohibidos: manipulan el comportamiento humano, opiniones y decisiones. El objetivo es realizar una clasificación de las personas en base a su comportamiento social y la identificación biométrica remota en tiempo real.
- Sistemas de alto riesgo: no están prohibidos, pero se identifican de alto riesgo debido a la categorización de personas naturales y el acceso a servicios públicos y privados esenciales.
Más allá de estos ámbitos, hay otros sistemas no clasificados de alto riesgo, pero con obligaciones específicas de transparencia (usos de interacción con humanos, detección de emociones o manipulación de contenidos). También hay otros sistemas de inteligencia artificial de menor riesgo, para los que no hay requisitos de transparencia ni de registro.
Volviendo a los sistemas de alto riesgo, sus responsables tienen una serie de obligaciones que pasan por evaluaciones de conformidad, documentación técnica, Quality and Risk Managemente System, record keeping, procedimientos de testing y de gestión de datos, reporte de incientes y brechas, etc.
Por su parte, el usuario también tiene una serie de responsabilidades: es responsable de la calidad de los datos, de monitorizar la operación y actuar al detectar un mal funcionamiento, generar logs y generar los Data Protection Impact Assessment (DPIA).
¿Cómo deben prepararse las empresas para hacer frente a las obligaciones que pide el AI Act?
En un primer paso, habría que identificar y definir los sistemas inteligentes con los que cuenta la organización y hacer un gap análisis de ellos, definiendo la hoja de ruta. A continuación, habría que implantar el modelo operativo y las herramientas de soporte. Resultan de especial importancia la explicabilidad, el sesgo y la consistencia de los datos. Se deben realizar monitorizaciones y mediciones de madurez del modelo de gobierno, revisiones de riesgos y controles específicos y revisiones de cumplimiento.
Detección de sesgos en IA
En la ponencia se muestra un vídeo de un sistema de detección de sesgos, por lo que se recomienda el visionado de la misma para una mayor comprensión de este apartado.
Conclusiones clave
- La inteligencia artificial ha llegado para quedarse y en los próximos años va a transformar radicalmente las empresas y la forma en que vivimos.
- Hay preocupación desde los gobiernos y la regulación que entrará en vigor próximamente a la que habrá que adaptarse a nivel mundial.
- No es solo una cuestión tecnológica, es multidisciplinar y, por lo tanto, requiere un enfoque desde distintos ángulos.
¿Todavía no formas parte de C1b3rWall Academy? El contenido es gratuito, únete a otras 30.000 personas desde este enlace.
Si te interesa este tema, puedes consultar la información y cursar el Máster en Ciberseguridad o ver la oferta de másteres desde aquí.
Ponente: Luis Enrique Corredera
Luis Enrique es Senior Manager en Deloitte, liderando la parte de blockchain y las prácticas de inteligencia artificial. Tiene experiencia en ciberseguridad y digital forensics, entre otros ámbitos. También ha sido parte de diferentes comités y ha trabajado en distintos ámbitos en el mundo de la innovación.
¿Cuál es tu reacción?