La IA va a ser regulada en Europa para respetar los derechos fundamentales
El jueves 27 de abril, el Parlamento Europeo llegó al fin a un acuerdo final sobre el Reglamento de inteligencia artificial. Es un paso importante porque el uso de la inteligencia artificial no está exenta de riesgos
Tiempo de lectura estimado: 9 minutos
Javier Valls Prieto, Universidad de Granada
Según la propuesta de regulación se pueden establecer diferentes usos de IA dependiendo de los riesgos que conlleva: usos prohibidos, usos de alto riesgo y aquellos que no entran en ninguna de las dos categorías anteriores.
Prohibido clasificar la honradez
Los usos prohibidos que contempla la regulación europea de la inteligencia artificial tienen que ver con:
-
IA que puedan alterar el comportamiento de una persona causándole un daño físico o psíquico de manera subliminal. En este sentido, se van a prohibir los sistemas basados en inteligencia artificial que reconozcan emociones en los ámbitos la educación, laboral, control de fronteras y aplicación de la ley.
-
Aquellos usos que exploten las vulnerabilidades de un grupo específico de individuos, ya sea por edad o discapacidad física o mental, con la finalidad de distorsionar el comportamiento de una persona.
-
Los usos por autoridades públicas o en su nombre para su evaluación o clasificación de la honradez de las personas mediante sistemas de puntuación basándose en su comportamiento social o por sus características personales. Dentro de estos supuestos se encuentra la prohibición de la utilización de sistemas predictivos de criminalidad o de fraude administrativo.
-
El uso en tiempo real de sistemas de identificación biométricos en espacios públicos, salvo en los casos de búsqueda de víctimas concretas de crímenes, la prevención de una amenaza específica, inminente y substancial para la vida o integridad física o una amenaza terrorista.
-
La detención, localización o persecución del autor o sospechoso de un delito. Únicamente se harán excepciones para delitos graves, previa autorización judicial.
Empleo, servicios públicos y justicia
La nueva regulación contempla también usos considerados como de alto riesgo. Entre ellos:
-
Aquellos sistemas que se encargan de la seguridad de otro producto o de sí mismos.
-
Los destinados a identificación biométrica y categorización de las personas físicas, gestión y explotación de infraestructuras críticas, enseñanza y formación profesional
-
Empleo, gestión de trabajadores y acceso al autoempleo.
-
Acceso y disfrute de los servicios privados esenciales y de los servicios y prestaciones públicos, así como los utilizados para el cumplimiento de la ley por las fuerzas y cuerpos de seguridad. Se incluyen también los relacionados con la gestión de la migración, el asilo y el control de fronteras.
-
Administración de justicia y procesos democráticos.
En el último debate parlamentario se ha accedido a incluir los sistemas de recomendación de las grandes plataformas online, los sistemas encargados de infraestructuras clave cuando haya un riesgo de impacto en el medio ambiente y la inteligencia artificial generativa, como ChatGPT o Dall-e.
En todas estas situaciones existen usos que ponen en riesgo los derechos fundamentales de los ciudadanos y se exigirán medidas para evitar que se vulneren. Eso sí, serán medidas alineadas con las guías sobre inteligencia artificial del grupo de altos expertos de la Comisión Europea, que llevan años dándole vueltas al asunto.
Evaluar los riesgos de por vida
La regulación europea indica que la evaluación de riesgos debe establecerse, implantarse, documentarse y mantenerse durante toda la vida del sistema inteligente. De manera repetitiva. Se deben evaluar los riesgos que pueden surgir de su uso previsto, pero también de las posibles malas aplicaciones. Y, por supuesto, implementar medidas para prevenirlos.
Además, se exige que haya un plan de gestión de datos, en cumplimiento con la normativa del Reglamento General de Protección de Datos. En todos los sistemas de IA es importante favorecer el acceso a la documentación técnica, y deben estar diseñados para que la transparencia en su funcionamiento permita a los usuarios interpretar sus resultados. Las instrucciones deben ser también sencillas de entender.
Por otro lado, la regulación contempla que los sistemas basados en inteligencia artificial se diseñen para permitir la supervisión humana de sus resultados, con el fin de prevenir y mitigar los riesgos en la salud, seguridad o en los derechos fundamentales de los ciudadanos.
No acaban ahí las exigencias: también deben ser precisos (mediante sistemas de métricas), robustos (que tengan copias de respaldo y planes en caso de fallo) y ciberseguros (preparados para intentos de usos por terceras partes no autorizadas).
Todos estos principios estaban ya recogidos en las guías éticas del grupo de altos expertos. En el reciente debate parlamentario europeo se ha acordado introducir otros que faltaban como el bienestar social y ambiental, el respeto a la diversidad y no discriminación y el principio de justicia.
Hacia una inteligencia artificial fiable
Que la regulación tenga como base el respeto a los derechos fundamentales y los siete principios de las guías del grupo de altos expertos de la Comisión Europea permite tener un estándar europeo claro: la inteligencia artificial fiable.
Estos requisitos serán controlados por las agencias nacionales de inteligencia artificial y, para los casos en los que se utilicen en más de un país o tengan un gran impacto transnacional, por la futura Junta Europea de Inteligencia Artificial.
Aunque ha llevado algún tiempo preparar la legislación, es indiscutible que se trata de un texto que va a dar garantías a la ciudadanía al priorizar el respecto y protección de los derechos fundamentales, teniendo como eje central de su diseño a los humanos.
Javier Valls Prieto, Prof. en Derecho Penal especializado en regulación ética y jurídica de la inteligencia artificial y la robótica, Universidad de Granada
Este artículo fue publicado originalmente en The Conversation. Lea el original.
¿Cuál es tu reacción?