El 13 de marzo, el Parlamento de la Unión Europea votó la Ley de Inteligencia Artificial como ley, estableciendo reglas estrictas sobre el uso de IA para el reconocimiento facial, creando salvaguardias para los sistemas de IA de uso general y protegiendo los derechos de los consumidores a presentar quejas y solicitar explicaciones significativas sobre las decisiones tomadas con sistemas de IA de alto riesgo que afectan los derechos de los ciudadanos. La legislación de la Ley de IA describe medidas a nivel de la UE diseñadas para garantizar que la IA se utilice de forma segura y ética, e incluye nuevos requisitos de transparencia para los desarrolladores de modelos básicos de IA como ChatGPT.
De los miembros del Parlamento, 523 votaron a favor de la aprobación de la Ley de IA, 46 votaron en contra de la aprobación de la Ley y 49 se abstuvieron. La votación se produce después de que los estados miembros acordaran las regulaciones en negociaciones en diciembre de 2023.
A continuación, el acto pasará por un “control de abogado-lingüista” y será refrendado formalmente. Después de eso, la ley entrará en vigor (es decir, entrará en vigor) y se publicará. La Ley de IA entrará en vigor 24 meses después de su publicación –lo que se espera que suceda en mayo o junio–, con algunas excepciones para casos de alta prioridad:
- Las prohibiciones de prácticas prohibidas se aplicarán seis meses después de la fecha de entrada en vigor (aproximadamente diciembre de 2024).
- Los códigos de práctica entrarán en vigor nueve meses después de su entrada en vigor (aproximadamente marzo de 2025).
- Las normas de IA de uso general, incluida la gobernanza, entrarán en vigor 12 meses después de su entrada en vigor (aproximadamente junio de 2025).
- Las obligaciones para los sistemas de alto riesgo entrarán en vigor 36 meses después de su entrada en vigor (aproximadamente junio de 2027).
¿Qué es la Ley de IA?
La Ley de IA es un conjunto de legislación a nivel de la UE que busca establecer salvaguardias sobre el uso de la inteligencia artificial en Europa, al mismo tiempo que garantiza que las empresas europeas puedan beneficiarse de la tecnología en rápida evolución.
La legislación establece un enfoque de regulación basado en el riesgo que clasifica los sistemas de inteligencia artificial en función de su nivel percibido de riesgo e impacto en los ciudadanos.
Los siguientes casos de uso están prohibidos según la Ley de IA:
- Sistemas de categorización biométrica que utilizan características sensibles (por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual, raza).
- Extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial.
- Reconocimiento de emociones en el ámbito laboral y en las instituciones educativas.
- Puntuación social basada en el comportamiento social o características personales.
- Sistemas de IA que manipulan el comportamiento humano para eludir su libre albedrío.
- La IA solía explotar las vulnerabilidades de las personas debido a su edad, discapacidad, situación social o económica.
La Ley de IA no entrará en vigor como mínimo hasta finales de 2024, lo que dejará un vacío regulatorio en el que las empresas podrán desarrollar e implementar IA sin restricciones y sin riesgo de sanciones. Hasta entonces, se espera que las empresas cumplan la legislación de forma voluntaria, dejándolas esencialmente libres para autogobernarse.
¿Qué necesitan saber los desarrolladores de IA?
Los desarrolladores de sistemas de IA considerados de alto riesgo tendrán que cumplir ciertas obligaciones establecidas por los legisladores europeos, incluida la evaluación obligatoria de cómo sus sistemas de IA podrían afectar los derechos fundamentales de los ciudadanos. Esto se aplica a los sectores bancario y de seguros, así como a cualquier sistema de inteligencia artificial con “daño potencial significativo a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el estado de derecho”.
Los modelos de IA que se consideran de alto impacto y plantean un riesgo sistémico (lo que significa que podrían causar problemas generalizados si algo sale mal) deben seguir reglas más estrictas. Los desarrolladores de estos sistemas deberán realizar evaluaciones de sus modelos, así como “evaluar y mitigar los riesgos sistémicos, realizar pruebas adversas, informar a la Comisión (Europea) sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética”. Además, los ciudadanos europeos tendrán derecho a presentar quejas y recibir explicaciones sobre las decisiones tomadas por sistemas de inteligencia artificial de alto riesgo que afecten sus derechos.
Para ayudar a las nuevas empresas europeas a crear sus propios modelos de IA, la Ley de IA también promueve entornos limitados de pruebas regulatorios y pruebas en el mundo real. Estos serán establecidos por las autoridades nacionales para permitir a las empresas desarrollar y entrenar sus tecnologías de IA antes de que sean introducidas en el mercado “sin presiones indebidas por parte de los gigantes de la industria que controlan la cadena de valor”.
“Hay mucho que hacer y poco tiempo para hacerlo”, dijo Enza Iannopollo, analista principal de Forrester, en un comunicado enviado por correo electrónico. “Las organizaciones deben formar su 'equipo de cumplimiento de IA' para empezar. Cumplir los requisitos de manera efectiva requerirá una fuerte colaboración entre los equipos, desde TI y ciencia de datos hasta gestión legal y de riesgos, y un apoyo cercano de la alta dirección”.
¿Qué pasa con ChatGPT y los modelos de IA generativa?
Los proveedores de sistemas de IA de uso general deben cumplir ciertos requisitos de transparencia según la Ley de IA; esto incluye la creación de documentación técnica, el cumplimiento de las leyes europeas de derechos de autor y el suministro de información detallada sobre los datos utilizados para entrenar los modelos básicos de IA. La regla se aplica a los modelos utilizados para sistemas de IA generativa como ChatGPT de OpenAI.
VER: Microsoft está invirtiendo £2.500 millones de libras esterlinas en tecnología y formación de inteligencia artificial en la UE. (República Tecnológica)
¿Cuáles son las sanciones por violar la Ley de IA?
Las empresas que no cumplan con la legislación se enfrentan a multas que van desde 35 millones de euros (38 millones de dólares) o el 7% de la facturación global hasta 7,5 millones de euros (8,1 millones de dólares) o el 1,5% de la facturación, dependiendo de la infracción y el tamaño de la empresa. .
¿Qué importancia tiene la Ley de IA?
Simbólicamente, la Ley de IA representa un momento crucial para la industria de la IA. A pesar de su crecimiento explosivo en los últimos años, la tecnología de inteligencia artificial sigue sin estar regulada en gran medida, lo que hace que los responsables políticos tengan dificultades para seguir el ritmo de la innovación.
La UE espera que su reglamento de IA siente un precedente a seguir por otros países. Publicar en X (anteriormente Twitter), El comisario europeo Thierry Breton calificó la Ley de IA “una plataforma de lanzamiento para que las nuevas empresas y los investigadores de la UE lideren la carrera mundial de la IA”, mientras que Dragos Tudorache, eurodiputado y miembro del Grupo Renew Europe, dicho La legislación fortalecería la capacidad de Europa para “innovar y liderar en el campo de la IA” y al mismo tiempo proteger a los ciudadanos.
¿Cuáles han sido algunos de los desafíos asociados con la Ley de IA?
La Ley de IA se ha visto afectada por retrasos que han erosionado la posición de la UE como pionera en el establecimiento de regulaciones integrales sobre IA. Lo más notable ha sido la llegada y posterior ascenso meteórico de ChatGPT a finales del año pasado, que no se había tenido en cuenta en los planes cuando la UE estableció por primera vez su intención de regular la IA en Europa en abril 2021.
Según lo informado por euractivo, esto desbarató las negociaciones, y algunos países expresaron su renuencia a incluir reglas para los modelos de fundaciones porque hacerlo podría obstaculizar la innovación en el escenario de las startups en Europa. Mientras tanto, Estados Unidos, el Reino Unido y los países del G7 han dado grandes pasos hacia la publicación de directrices sobre IA.
VER: Cumbre de seguridad de la IA del Reino Unido: las potencias mundiales hacen un compromiso 'histórico' con la seguridad de la IA (TechRepublic)
Respuestas de organizaciones tecnológicas
“Felicito a la UE por su liderazgo al aprobar una legislación integral e inteligente sobre IA”, dijo Christina Montgomery, vicepresidenta y directora de privacidad y confianza de IBM, en una declaración realizada por correo electrónico. “El enfoque basado en riesgos se alinea con el compromiso de IBM con las prácticas éticas de IA y contribuirá a construir ecosistemas de IA abiertos y confiables”.
Organizaciones como IBM han estado preparando productos que podrían ayudar a las organizaciones a cumplir con la Ley de IA, como watsonx.governance de IBM.
En una rueda de prensa celebrada el miércoles 6 de marzo, Montgomery dijo que las empresas deben “tomarse en serio” la gobernanza de la IA.
“Habrá un período de implementación, pero es clave asegurarse de estar preparado para la regulación y poder hacer cambios en un clima cambiante”, dijo.
IBM ha sido el primer cliente de sus propias herramientas de gobernanza de IA, dijo Montgomery, preparándose para las regulaciones ajustando esas herramientas, creando un conjunto claro de principios en torno a la confianza y la transparencia de la IA y creando una junta de ética de la IA.
Jean-Marc Leclerc, director y jefe de política de la UE en IBM, dijo que la Ley de IA tendrá influencia en todo el mundo, de manera similar al RGPD. Leclerc calificó la Ley de IA como positiva para la apertura y la competencia entre empresas de la UE.
Eric Loeb, vicepresidente ejecutivo de asuntos gubernamentales de Salesforce escribió“Creemos que al crear marcos basados en el riesgo, como la Ley de IA de la UE, impulsar compromisos con una IA ética y confiable, y convocar grupos de múltiples partes interesadas, los reguladores pueden tener un impacto positivo sustancial. Salesforce aplaude a las instituciones de la UE por asumir el liderazgo en este ámbito”.
¿Qué dicen los críticos sobre la Ley de IA?
Algunos grupos de privacidad y derechos humanos han argumentado que estas regulaciones sobre IA no van lo suficientemente lejos, acusando a los legisladores de la UE de entregar una versión diluida de lo que prometieron originalmente.
Grupo de derechos de privacidad Los derechos digitales europeos reciben la etiqueta de Ley de IA un “compromiso de alto nivel” sobre “una de las legislaciones digitales más controvertidas en la historia de la UE”, y sugirió que las lagunas en la legislación amenazaban con socavar los derechos de los ciudadanos.
El grupo fue particularmente crítico con la prohibición limitada de la Ley sobre el reconocimiento facial y la vigilancia policial predictiva, argumentando que las amplias lagunas jurídicas, las definiciones poco claras y las exenciones para ciertas autoridades dejaban a los sistemas de IA abiertos a un posible uso indebido en la vigilancia y la aplicación de la ley.
Ella Jakubowska, asesora principal de políticas de European Digital Rights, dijo en una declaración:
“Es difícil entusiasmarse con una ley que, por primera vez en la UE, ha tomado medidas para legalizar el reconocimiento facial público en vivo en todo el bloque. Si bien el Parlamento luchó duramente para limitar los daños, el paquete general sobre vigilancia biométrica y elaboración de perfiles es, en el mejor de los casos, tibio. Nuestra lucha contra la vigilancia biométrica masiva continuará”.
Amnistía Internacional también criticó la prohibición limitada del reconocimiento facial de IA, diciendo que sienta “un precedente global devastador”.
Mher Hakobyan, asesora de defensa de la inteligencia artificial en Amnistía Internacional, afirmó en una declaración: “Las tres instituciones europeas (Comisión, Consejo y Parlamento) dieron luz verde a la vigilancia digital distópica en los 27 Estados miembros de la UE, sentando un precedente devastador a nivel mundial en lo que respecta a la regulación de la inteligencia artificial (IA).
“Por lo tanto, no garantizar una prohibición total del reconocimiento facial es una oportunidad enormemente perdida para detener y prevenir daños colosales a los derechos humanos, el espacio cívico y el Estado de derecho que ya están amenazados en toda la UE”.
Un borrador de la ley fue filtrado en enero de 2024, destacando la urgencia con la que las empresas deberán cumplir la ley. A algunos legisladores les preocupa que la ley obstaculice la innovación y el crecimiento económico, como el presidente francés Emmanuel Macron hablando ante el Tiempos financieros en diciembre de 2023.
¿Qué sigue con la Ley de IA?
La Ley de IA está pendiente de adopción formal tanto por el Parlamento Europeo como por el Consejo para ser promulgada como legislación de la Unión Europea. El acuerdo estará sujeto a votación en una próxima reunión de las comisiones de Mercado Interior y Libertades Civiles del Parlamento.