Incertidumbre en el sector tecnológico: Bruselas retrasa de nuevo las guías de IA de alto riesgo


La implementación del Reglamento de Inteligencia Artificial (AI Act) de la Unión Europea ha vuelto a tropezar con los plazos administrativos. La Comisión Europea ha confirmado esta semana que no cumplirá el plazo legal del 2 de febrero de 2026 para publicar las directrices técnicas que deben definir la clasificación de los sistemas de IA de alto riesgo. Este es el segundo retraso consecutivo para un documento vital que afecta directamente al artículo 6 de la norma, dejando a miles de empresas españolas en un "punto ciego" regulatorio.

El dilema de la clasificación y el "Digital Omnibus"

Lo que ocurre con este retraso es que las empresas que desarrollan soluciones de visión artificial, análisis predictivo en recursos humanos o biometría no tienen una confirmación oficial sobre si sus productos estarán sujetos a las obligaciones más estrictas de la ley. Sin estas guías, los desarrolladores desconocen si deben implementar ya los costosos sistemas de gestión de riesgos, gobernanza de datos y supervisión humana que exige la categoría de alto riesgo.

Para aliviar esta presión, la Comisión está impulsando el denominado Digital Omnibus (o paquete de simplificación digital). Esta propuesta legislativa busca dos objetivos principales:

  1. Simplificar la definición de lo que se considera "alto riesgo" para evitar una sobrecarga administrativa innecesaria.

  2. Retrasar la entrada en vigor de las obligaciones para estos sistemas (originalmente prevista para agosto de 2026) hasta por 16 meses adicionales, lo que movería el horizonte de cumplimiento hacia finales de 2027.

Impacto en el ecosistema emprendedor español

Por qué ocurre este retraso responde a la enorme cantidad de comentarios recibidos durante las consultas públicas y a la dificultad de armonizar los estándares técnicos (CEN/CENELEC) que aún no están listos. Para una startup en Madrid o Barcelona que esté levantando una ronda de financiación, este vacío legal es un obstáculo crítico: los inversores exigen saber si el producto cumplirá con la normativa, pero la empresa no puede certificarlo sin las directrices que Bruselas acaba de posponer.

La implicación es que, mientras las prohibiciones de IA (como el scoring social o la manipulación subliminal) ya están vigentes desde febrero de 2025, el grueso de la industria que opera en áreas sensibles —salud, educación, empleo o infraestructuras críticas— se encuentra en un limbo. Bruselas justifica el retraso asegurando que es preferible entregar unas guías "robustas y consensuadas" que unas apresuradas que generen fragmentación en el mercado único.

Hacia un calendario de cumplimiento flexible

Hacia dónde apunta este escenario es hacia un 2026 de transición. Aunque la ley dice que la aplicación plena empieza en agosto, el consenso político en el Parlamento y el Consejo parece favorecer el retraso propuesto en el "Omnibus". Esto daría a las empresas el margen necesario para esperar a las normas armonizadas, que ahora se esperan para finales de 2026.

La resiliencia del sector tecnológico español dependerá de su capacidad para seguir avanzando en la ética de sus modelos sin esperar a la letra pequeña de Bruselas. Aquellas organizaciones que ya hayan adoptado marcos voluntarios de confianza tendrán mucho terreno ganado cuando las guías finalmente vean la luz, presumiblemente, a finales de este semestre.