Bruselas, Bélgica, 22 de junio de 2025.– El Parlamento Europeo aprobó de forma definitiva la Ley de Inteligencia Artificial (AI Act), la primera regulación completa que clasifica los sistemas de IA según su nivel de riesgo. Con este paso, Europa establece un marco legal robusto para el desarrollo, uso y comercialización de tecnologías basadas en IA, priorizando la seguridad, transparencia, ética y respeto a los derechos humanos .

Clasificación por niveles de riesgo
La ley organiza los sistemas de IA en cuatro categorías según el riesgo que representan para la sociedad
-
Riesgo inaceptable: Prohibidos, incluyen sistemas de reconocimiento facial masivo, scoring social, manipulación subliminal y reconocimiento emocional en contextos vulnerables.
-
Alto riesgo: Sujetos a requisitos rigurosos de evaluación, transparencia y supervisión. Incluyen IA en medicina, infraestructura crítica, justicia y educación.
-
Riesgo limitado: Regulados mediante transparencia (ej. chatbots, generadores de imágenes): deben informar al usuario sobre su naturaleza artificial.
-
Riesgo mínimo: Aplicaciones con poca o ninguna supervisión legal, como filtros antispam y recomendaciones de contenido.
Un modelo global para el desarrollo ético de la IA
Expertos califican esta normativa como un precedente mundial en regulación tecnológica, que extrae un equilibrio entre innovación y protección de los ciudadanos. La ley entró en vigor el 1 de agosto de 2024, con fases de activación escalonadas: prohibiciones desde febrero de 2025, reglas sobre IA de propósito general en 2025 y exigencias para sistemas de alto riesgo hasta mediados de 2026.
Europa no sólo impone reglas, también fomenta la innovación responsable mediante herramientas como «sandboxes» regulatorios y la creación de una estructura de supervisión nacional en cada país miembro .










