Actualidad

[editar plantilla]

La Unión Europea publica la nueva Ley sobre Inteligencia Artificial [editar]

Constituye la primera regulación general a nivel mundial de esta importante materia, pero debería mejorar la protección de derechos fundamentales.

18 de Julio de 2024
FSG Igualdad y Lucha contra la Discriminación

COMPARTIR
La Unión Europea publica la nueva Ley sobre Inteligencia ArtificialLa Fundación Secretariado Gitano lleva ya varios años trabajando sobre el ámbito de la inteligencia artificial y el uso de sistemas automatizados por medio de algoritmos para prevenir los posibles sesgos discriminatorios que pueden afectar a las personas gitanas.

El Diario Oficial de la Unión Europea (DOUE) publicó el pasado 12 de julio el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (Reglamento de Inteligencia Artificial.

La norma, conocida como ley Europea de Inteligencia Artificial, constituye la primera regulación general a nivel mundial y con rango de Ley de esta importante materia, y condicionará el desarrollo económico y social de los próximos años.

Desde la Fundación Secretariado Gitano queremos poner de relieve que el uso de estos sistemas puede afectar especialmente a personas gitanas, por ejemplo en los sistemas de policía predictiva (la Ley europea no prohíbe totalmente estos sistemas), en los algoritmos que amplifican y difunden bulos y fake news antigitanas, o en los sistemas automatizados de concesión de ayudas sociales, becas o préstamos, como ya se ha constatado en algunos casos en diferentes países europeos[1]. También consideramos que es necesario que España establezca un mecanismo estable de participación de la sociedad civil en la Agencia Española de Supervisión de la Inteligencia Artificial, que incluya las voces de representantes del pueblo gitano, para prevenir los sesgos señalados y garantizar la protección de los derechos fundamentales.

La Fundación Secretariado Gitano lleva ya varios años trabajando sobre el ámbito de la inteligencia artificial y el uso de sistemas automatizados por medio de algoritmos, para prevenir los posibles sesgos discriminatorios que pueden afectar a las personas gitanas. El Informe anual Discriminación y Comunidad Gitana 2022 abordó este tema en profundidad[2], y también organizamos una Jornada con personas expertas en el año 2022 con el Observatorio Nacional de Tecnología y Sociedad (Sesgo discriminatorio en el uso de la inteligencia artificial y los algoritmos. Impacto en la comunidad gitana). Paralelamente, desde hace tres años colaboramos en diversas redes que trabajan en la defensa de derechos en esta materia (IA y sesgos discriminatorios)[3].

 

La Ley establece:

a)

 normas armonizadas para la introducción en el mercado, la puesta en servicio y la utilización de sistemas de IA en la Unión;

 

b)

prohibiciones de determinadas prácticas de IA;

 

c)

 requisitos específicos para los sistemas de IA de alto riesgo y obligaciones para los operadores de dichos sistemas;

 

d)

 normas armonizadas de transparencia aplicables a determinados sistemas de IA;

 

e)

 normas armonizadas para la introducción en el mercado de modelos de IA de uso general;

 

f)

 normas sobre el seguimiento del mercado, la vigilancia del mercado, la gobernanza y la garantía del cumplimiento;

 

g)

 medidas en apoyo de la innovación, prestando especial atención a las pymes, incluidas las empresas emergentes.

 

A quién afecta: esta Ley regula el uso de sistemas de IA en todas las administraciones públicas y también en el ámbito de las empresas privadas (hay excepciones en casos de sistemas de defensa, militares y de seguridad nacional).

Según la Ley de IA, los sistemas de aprendizaje automático se dividirán en cuatro categorías principales en función del riesgo potencial que supongan para la sociedad. Los sistemas considerados de alto riesgo estarán sujetos a normas estrictas que se aplicarán antes de que entren en el mercado de la UE.

 

Plazos de entrada en vigor y aplicación:

Entrada en vigor: 1 de agosto de 2024.

Aplicación: las normas generales sobre IA se aplicarán un año después de su entrada en vigor, en agosto de 2025, y las obligaciones para los sistemas de alto riesgo en tres años. Estarán bajo la supervisión de las autoridades nacionales, apoyadas por la oficina de IA dentro de la Comisión Europea

 

La Ley reconoce los peligros de estos sistemas para grupos vulnerables, entre ellos las minorías étnicas, y la necesidad de vigilar posibles sesgos raciales o sexistas. También insiste en la necesidad de controlar que esos sistemas no generen discriminaciones de ningún tipo.

En lo relativo a la protección de derechos fundamentales, quedan prohibidos los sistemas de inteligencia artificial de categorización biométrica por creencias políticas, religiosas, filosóficas o por origen étnico y orientación sexual. Tampoco se podrán utilizar los sistemas que puntúan a las personas en función de su comportamiento o características personales, ni la inteligencia artificial capaz de manipular el comportamiento humano.

Por otro lado, también estarán prohibidos los sistemas para expandir o crear bases de datos faciales captados de manera indiscriminada a través de internet o de grabaciones audiovisuales.

 

En líneas generales, el reglamento permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas e identifica sistemas de alto riesgo que solo se podrán utilizar si se demuestra que respetan los derechos fundamentales. Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, o los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia.

 

Para quienes incumplan la normativa se prevén multas con un rango que va desde los 35 millones de euros (37,6 millones de dólares) o el 7 % del volumen global de negocio de las empresas, hasta los 7,5 millones de euros (8 millones de dólares) o el 1,5 % del volumen global de negocio. 

 

No obstante, la normativa permite algunas excepciones para permitir ciertos usos para garantizar la seguridad nacional. Este fue uno de los puntos más polémicos durante las negociaciones entre el Parlamento Europeo y los Estados miembros. Así, las fuerzas de seguridad sí podrán utilizar las cámaras de identificación biométrica, siempre con autorización judicial, para prevenir una amenaza terrorista. Además, estos sistemas se podrán usar también para localizar a los responsables de delitos de terrorismo, tráfico de personas, explotación sexual, así como para buscar a las víctimas. 

 

Algunos puntos débiles de la Ley:

  • La autoevaluación de riesgos de las empresas de IA pone en peligro la protección de los derechos fundamentales.
  • Los estándares para las evaluaciones de impacto sobre los derechos fundamentales son débiles.
  • El uso de IA con fines de seguridad nacional puede afectar derechos fundamentales
  • No se garantiza la participación cívica en la implementación y aplicación de la Ley.

Estas debilidades suponen que la Ley no ha logrado un estándar adecuado en la protección de los derechos humanos[4]. Para proteger estos derechos serían necesarias estas mejoras:

  • Prohibir el reconocimiento de emociones y limitar el uso biométrico (se limita en la Ley pero de forma poco clara). 
  • Crear un registro público de algoritmos. 
  • Asegurar igualdad en los sistemas de IA. 
  • Fomentar la participación activa de la sociedad civil, incluyendo las minorías étnicas, que puede verse especialmente afectadas por estos sistemas. En este sentido sería necesario que la recién creada Agencia Española de Supervisión de la Inteligencia Artificial[5] establezca canales directos y estables de participación con organizaciones de la sociedad civil, tal y como establecen sus estatutos[6], la nueva Estrategia de IA 2024[7] española y la propia Ley europea de IA.

 

[1] https://informesdiscriminacion.gitanos.org/afondo/2022

[2] La posición de la FSG en esta materia se puede leer en este artículo: https://informesdiscriminacion.gitanos.org/a-fondo/inteligencia-artificial-uso-de-algoritmos-y-sesgo-%C3%A9tnico-racial-impacto-en-la-comunidad

[3] En el ámbito estatal, IA Ciudadana https://iaciudadana.org/. En el ámbito europeo, la red EDRi https://edri.org/ y la mesa Justicia, Igualdad y Tecnología de la London School of Economics https://www.lse.ac.uk/justice-equity-technology .

[4] Para un análisis detallado de estas debilidades, véase el documento de posición de IA Ciudadana, red de entidades que incluye a la FSG como entidad observadora:

https://iaciudadana.org/2024/06/18/ia-ciudadana-considera-que-el-reglamento-de-inteligencia-artificial-no-ha-logrado-un-estandar-adecuado-de-proteccion-de-los-derechos-humanos/

[5] https://espanadigital.gob.es/lineas-de-actuacion/agencia-espanola-de-supervision-de-la-inteligencia-artificial

[6] https://www.boe.es/diario_boe/txt.php?id=BOE-A-2023-18911

[7] https://portal.mineco.gob.es/es-es/digitalizacionIA/Documents/Estrategia_IA_2024.pdf

VOLVER A LA PÁGINA PRINCIPAL DE ACTUALIDAD
...

GITANOS.ORG

...

GITANOS EN LA PRENSA

El alumnado gitano en Secundaria
  • El alumnado gitano en Secundaria
  • VER MÁS