Ley de Inteligencia Artificial para niños
Datos para niños Reglamento (UE) 2024/1689 |
||
---|---|---|
Texto pertinente a efectos del EEE | ||
Título | "Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión" | |
Hecho por | Comisión Europea | |
Referencia del DOUE | 3A32024R1689 | |
Cronología | ||
Fecha de aprobación | 13 de marzo de 2024 | |
Entrada en vigor | 1 de agosto de 2024 | |
Fecha de aplicación | 24 meses posteriores a la entrada en vigor | |
Textos preparatorios | ||
Propuesta de la Comisión | COM(2021) 206 final 2021/0106(COD) | |
Opinión del Comité Económico y Social | CESE 2021/02482 | |
Opinión del Comité de las Regiones | CDR 2021/02682 | |
Opinión del Parlamento | Resolución 2020/2012 (INL) | |
Informes | Informe A9-0188/2023 | |
Estatus legislativo | Completado | |
Legislación relacionada | ||
Modifica | Reglamentos: (CE) n.º 300/2008 (UE) n.º 167/2013 (UE) n.º 168/2013 (UE) número 2018/858 (UE) número 2018/1139 (UE) n.º 2019/2144 Directivas: 2014/90/UE 2016/797/UE 2020/1828/UE |
|
Legislación vigente | ||
La Ley de Inteligencia Artificial es un Reglamento aprobado por el Parlamento Europeo el 13 de marzo de 2024. Entró en vigor el 1 de agosto de 2024. Fue propuesta por la Comisión Europea el 21 de abril de 2021.
Esta ley forma parte de la estrategia Década Digital 2030. Su objetivo es crear un conjunto de reglas único para los sistemas de inteligencia artificial (IA) que se usan en la Unión Europea. Es la primera ley de este tipo en el mundo.
La Ley de IA busca hacer que la inteligencia artificial sea más segura. También quiere proteger los derechos fundamentales de las personas en la Unión Europea. Se aplica a casi todos los sectores, excepto a los usos militares.
Esta ley no da derechos a las personas directamente. En cambio, regula y supervisa a las empresas que crean sistemas de IA. También controla a las organizaciones que usan estos sistemas de forma profesional.
La ley clasifica las aplicaciones de IA según el riesgo que presentan. Las aplicaciones de bajo riesgo no tienen reglas específicas. Esto se debe a que la ley busca que las normas sean iguales en toda Europa.
Para los sistemas de bajo riesgo, se espera un código de conducta voluntario. Los sistemas de riesgo medio y alto deben pasar por una revisión obligatoria. Esta revisión la hace la empresa que crea el sistema antes de venderlo.
Algunas aplicaciones muy importantes ya tienen revisiones especiales por otras leyes. Por ejemplo, los productos médicos. En estos casos, la revisión de la Ley de IA se suma a las ya existentes.
La ley también prohíbe ciertos tipos de aplicaciones de IA. Esto incluye el reconocimiento biométrico a distancia en tiempo real. También prohíbe las aplicaciones que influencian a las personas sin que se den cuenta.
Además, prohíbe las aplicaciones que usan las debilidades de ciertos grupos de forma dañina. Y también prohíbe los sistemas de puntuación social. Para algunas de estas, la policía podría tener permisos especiales.
La ley propone crear una Junta Europea de Inteligencia Artificial. Esta junta ayudará a los países a trabajar juntos. Así se asegurará que las reglas se respeten.
Al igual que el Reglamento General de Protección de Datos (RGPD), la Ley de IA podría ser un ejemplo para otros países. Brasil, por ejemplo, ya está trabajando en una ley similar.
El Consejo acordó su posición sobre la Ley de IA el 6 de diciembre de 2022. Alemania apoya esta posición, pero sugirió algunas mejoras.
Contenido
Disposiciones de la Ley de IA
La Ley de IA organiza los sistemas de inteligencia artificial en diferentes categorías. Esto depende del nivel de riesgo que puedan representar.
Categorías de Riesgo de la IA
Existen varias categorías de riesgo para las aplicaciones de IA. Hay una categoría especial para la inteligencia artificial generativa.
Riesgo Inaceptable: Aplicaciones Prohibidas
Las aplicaciones de IA en esta categoría están prohibidas. Hay algunas excepciones muy específicas. Esto incluye sistemas de IA que manipulan el comportamiento humano.
También se prohíbe el reconocimiento facial a distancia en tiempo real en lugares públicos. Los sistemas usados para la puntuación social (clasificar a las personas por sus características) también están prohibidos.
Alto Riesgo: Sistemas con Amenazas Significativas
Esta categoría incluye aplicaciones de IA que podrían ser peligrosas para la salud, la seguridad o los derechos fundamentales de las personas. Por ejemplo, sistemas de IA usados en salud, educación o justicia.
Estos sistemas deben cumplir con requisitos de calidad, transparencia y seguridad. También deben tener supervisión humana. En algunos casos, necesitan una "Evaluación del Impacto sobre los Derechos Fundamentales" antes de usarse.
Se evalúan antes de venderse y durante todo su uso. La lista de aplicaciones de alto riesgo puede crecer sin cambiar la ley.
IA de Propósito General: Modelos Versátiles
Esta categoría se añadió en 2023. Incluye modelos como ChatGPT. Si el modelo no es de código abierto, debe ser transparente. Esto significa que debe dar un resumen de los datos usados para entrenarlo.
Los sistemas de IA de propósito general de alto impacto, incluso los de código abierto, pueden tener riesgos grandes. Si son muy potentes, deben pasar por una evaluación completa.
Riesgo Limitado: Requisitos de Transparencia
Los sistemas de IA en esta categoría deben ser transparentes. Esto significa que los usuarios deben saber que están interactuando con una IA. Así pueden tomar decisiones informadas.
Un ejemplo son las aplicaciones de IA que crean o cambian imágenes, sonidos o videos (como los deepfakes).
Riesgo Mínimo: La Mayoría de las Aplicaciones
Esta categoría incluye la mayoría de las aplicaciones de IA. Por ejemplo, sistemas de IA en videojuegos o filtros de spam. Estos sistemas no están regulados por la ley.
Los países de la Unión Europea no pueden añadir más reglas para ellos. Las leyes nacionales que existían sobre estos sistemas son reemplazadas. Sin embargo, se sugiere un código de conducta voluntario.
Exenciones de la Ley de IA
Algunos sistemas de IA no están cubiertos por esta ley. Esto incluye los usados para fines militares o de seguridad nacional. También se excluyen los sistemas para investigación científica pura.
La ley prohíbe la videovigilancia con algoritmos en tiempo real. Pero hay excepciones para la policía. Por ejemplo, si hay una amenaza real de ataque.
La ley busca prohibir los sistemas de IA que dan puntuación social a las personas. Pero permite evaluaciones legales de personas para fines específicos. Esto debe cumplir con las leyes de la Unión Europea y nacionales.
Gobernanza de la IA en Europa
La ley crea nuevos organismos para ayudar a implementarla y hacerla cumplir. Estos organismos coordinan el trabajo en toda la Unión Europea. También involucran a autoridades públicas y empresas.
Se crearán los siguientes organismos:
- Oficina Europea de Inteligencia Artificial: Esta oficina coordinará la aplicación de la ley en todos los países. También supervisará a los proveedores de IA de propósito general.
- Junta Europea de Inteligencia Artificial: Un representante de cada país formará parte de esta junta. Asesorará a la Comisión y a los países para aplicar la ley de forma consistente.
- Foro Asesor: Este foro dará consejos técnicos a la Junta y a la Comisión. Incluirá a empresas, startups, pequeñas y medianas empresas, y expertos.
- Panel científico de expertos independientes: Este grupo dará consejos técnicos a la Oficina de IA. También ayudará a asegurar que las reglas de la ley estén actualizadas con los últimos descubrimientos científicos.
Además de estos organismos de la UE, cada país deberá tener sus propias "autoridades nacionales competentes". Estas autoridades se encargarán de aplicar la ley y de supervisar el mercado.
Aplicación de la Ley de IA
La Ley de IA regula cómo los sistemas de IA pueden entrar al mercado de la UE. Establece requisitos esenciales que todos los sistemas de IA deben cumplir.
Estos requisitos se envían a organizaciones europeas que crean normas técnicas. Estas normas dan más detalles sobre cómo cumplir los requisitos.
Los países de la UE deben crear sus propios organismos que revisen los sistemas de IA. Hay dos formas de verificar si un sistema cumple las normas:
- Autoevaluación: La empresa que crea el sistema de IA verifica que cumple las reglas.
- Evaluación por un tercero: Un organismo oficial externo revisa el sistema.
Estos organismos externos también pueden hacer auditorías para asegurar que las evaluaciones son correctas.
Algunos expertos han señalado que muchos sistemas de IA de alto riesgo no requieren evaluaciones de terceros. Esto ha generado críticas. Se argumenta que se necesitan revisiones independientes para asegurar la seguridad.
También se ha sugerido que los sistemas de IA que crean imágenes o videos falsos para desinformar deberían ser de alto riesgo. Así tendrían una regulación más estricta.
Proceso de Creación de la Ley
En febrero de 2020, la Comisión Europea publicó un documento sobre la inteligencia artificial. En octubre de 2020, los líderes de la UE debatieron el tema.
La Comisión propuso oficialmente la ley el 21 de abril de 2021. El 6 de diciembre de 2022, el Consejo Europeo acordó su posición. Esto permitió iniciar las negociaciones con el Parlamento Europeo.
El 9 de diciembre de 2023, después de largas conversaciones, el Consejo y el Parlamento de la UE llegaron a un acuerdo.
La ley fue aprobada en el Parlamento Europeo el 13 de marzo de 2024. Votaron 523 a favor, 46 en contra y 49 se abstuvieron. El Consejo de la UE la aprobó el 21 de mayo de 2024.
Entrará en vigor el 1 de agosto de 2024. Esto es 20 días después de su publicación en el Diario Oficial el 12 de julio de 2024.
Después de entrar en vigor, habrá un tiempo de espera antes de que se aplique completamente. Este tiempo varía según el tipo de aplicación de IA. Por ejemplo, las prohibiciones de sistemas de "riesgo inaceptable" se aplicarán en 6 meses.
Reacciones a la Ley de IA
Expertos creen que, aunque la ley es europea, tendrá un gran impacto en empresas de todo el mundo. Especialmente en aquellas que quieren expandirse a Europa.
Anu Bradford, de la Universidad de Columbia, dice que la ley es un gran paso para regular la IA a nivel mundial.
Amnistía Internacional criticó la ley por no prohibir completamente el reconocimiento facial en tiempo real. Argumentaron que esto podría afectar los derechos humanos. También criticaron que no se prohíba exportar tecnologías de IA que puedan dañar los derechos humanos.
Algunos grupos de vigilancia tecnológica dicen que la ley tiene vacíos. Creen que esto podría permitir que las grandes empresas tecnológicas mantengan su ventaja.
Algunas startups vieron la ley como algo positivo, ya que aclara las reglas. Otras argumentaron que las nuevas reglas harían que las startups europeas fueran menos competitivas.
La Quadrature du Net (LQDN) describió la ley como "hecha a medida para la industria tecnológica". También dijeron que la ley es "incapaz de impedir el daño social, político y ambiental" de la IA.
Véase también
En inglés: Artificial Intelligence Act Facts for Kids
- Sesgo algorítmico
- Ética de la inteligencia artificial
- Regulación de algoritmos
- Riesgo existencial de la inteligencia artificial