Impacto y Requisitos de Transparencia en el Uso de IA
Descubre cómo el acuerdo provisional de la IA Act redefine la regulación de la inteligencia artificial en la Unión Europea, marcando hitos cruciales para la transparencia y la clasificación de riesgos.
Un Acuerdo Histórico: La IA Act y su Impacto en la Unión Europea
En las últimas horas, se ha anunciado un acuerdo provisional que establece las bases para la regulación de la inteligencia artificial en la Unión Europea. Este hito histórico sigue a largas negociaciones entre los estados miembros, con Alemania, Francia e Italia liderando el camino. La Comisión Europea celebró el cierre de este acuerdo pionero, que ahora espera la ratificación tanto de los estados miembros como del Parlamento.
Detalles Clave del Acuerdo
1. Transparencia y Clasificación por Riesgos
El acuerdo destaca la importancia de la transparencia en el uso diario de la inteligencia artificial. Contenidos generados por IA, como chatbots y deepfakes, deberán ser etiquetados de manera clara para que los usuarios comprendan que están interactuando con una inteligencia artificial. Además, se introduce la obligación de marcar contenidos producidos por IA para su detección.
La clasificación de aplicaciones de inteligencia artificial se realizará según el riesgo asociado:
- Riesgo Mínimo: Incluye sistemas de recomendación o filtros de spam, considerados de bajo riesgo para los derechos y la seguridad. Aunque sin obligaciones, las empresas pueden optar por adoptar códigos de conducta voluntarios.
- Alto Riesgo: Aplica a sistemas con potencial para dañar la salud, seguridad, derechos fundamentales, medio ambiente y democracia. Requieren registro de actividad, documentación detallada, información clara al usuario y altos estándares de robustez y ciberseguridad.
- Riesgo Inaceptable: Apunta a IA que representa una amenaza clara a los derechos fundamentales. Incluye sistemas que manipulan el comportamiento humano, social scoring, y sistemas que explotan vulnerabilidades humanas.
2. Aplicaciones Prohibidas o Altamente Reguladas
Se establece una lista de aplicaciones de inteligencia artificial prohibidas o altamente reguladas debido a su impacto negativo en los derechos y la democracia. Entre ellas se encuentran sistemas de categorización biométrica con características sensibles, extracción indiscriminada de datos de bases de datos, reconocimiento de emociones en entornos laborales y educativos, social scoring y sistemas que manipulan el comportamiento humano.
#TRÍLOGO | ¡¡¡¡ACUERDO!!!! @EUCouncil y @Europarl_EN alcanzan un acuerdo provisional sobre la ley de inteligencia artificial #AIAct
Esta prevé garantizar que los sistemas de IA comercializados y usados en la UE sean seguros y respeten los derechos fundamentales y los valores UE pic.twitter.com/p71fKCTgkL
— Presidencia española del Consejo de la UE (@eu2023es) December 8, 2023
3. Identificación Biométrica y Ley Aplicable a Plataformas como ChatGPT
La identificación biométrica se aborda cuidadosamente en el acuerdo, permitiéndola con autorización judicial para fines policiales y casos específicos como secuestros o amenazas terroristas. Plataformas de inteligencia artificial de propósito general, como ChatGPT, deben cumplir con criterios de transparencia, documentación técnica y respeto a la ley de derechos de autor de la UE.
Sanciones por Incumplimiento
El acuerdo establece sanciones significativas para aquellos que no cumplan con las normas. Las multas pueden oscilar entre 7,5 millones o el 1,5% del volumen de negocios hasta 35 millones de euros o el 7% del volumen, dependiendo de la gravedad de la infracción y el tamaño de la empresa.
Próximos Pasos y Fecha de Entrada en Vigor
Este acuerdo provisional es solo un paso más en un proceso que lleva más de dos años gestándose. La IA Act, concebida en la primavera de 2021, ahora espera la ratificación de los estados miembros y el Parlamento Europeo. Se prevé que entre en vigor en 2026, aunque algunas secciones podrían operar antes.