Proveedor (provider)
Crea o encarga la creación de un sistema de IA y lo introduce en el mercado bajo su propia marca.
Mayor alcance de obligaciones y de documentación.
Te ayudamos a desplegar la IA conforme a la ley para proteger el negocio, al consejo de administración y el ritmo de desarrollo de los productos.
El AI Act actúa con efecto extraterritorial: si un sistema de IA opera en el mercado de la UE o sus resultados se utilizan en la UE, la regulación puede aplicarse con independencia del país de domicilio de la entidad.
Crea o encarga la creación de un sistema de IA y lo introduce en el mercado bajo su propia marca.
Mayor alcance de obligaciones y de documentación.
Utiliza el sistema de IA en su actividad profesional y responde por la forma de uso operativo.
Clave: supervisión humana, monitorización, evaluación de impacto sobre los derechos fundamentales (FRIA) en los casos exigidos.
Introduce en la UE sistemas de IA de fuera de la Unión o los sigue distribuyendo.
Requiere control de la cadena de suministro y de la documentación del fabricante.
Adapta el modelo de IA a un uso empresarial concreto.
En la práctica puede asumir el estatus de proveedor de un nuevo sistema.
Si tu sistema de IA elabora perfiles de personas físicas y entra en el anexo III, es automáticamente high-risk. No es posible acogerse a la excepción del art. 6, apartado 3, que suaviza las obligaciones para otros sistemas.
Prácticas inadmisibles (p. ej. puntuación social, manipulación subliminal, parte de los usos de la biometría).
Consecuencia: retirada inmediata y las sanciones económicas más altas.
Sistemas que afectan a los derechos fundamentales, a la seguridad o a decisiones relevantes sobre las personas.
Consecuencia: paquete completo de requisitos del art. 8-17 y evaluación de la conformidad.
Chatbots, deepfake, sistemas generativos y otros ámbitos de transparencia.
Consecuencia: obligaciones informativas y etiquetado de contenido de IA.
Sin obligaciones sectoriales dedicadas más allá de las competencias en IA y las buenas prácticas de gobernanza.
Consecuencia: principios básicos de control y formación de los usuarios.
Estado normativo / material: 19 de febrero de 2026.
La clasificación determina el presupuesto, el ritmo de implantación y el nivel de responsabilidad de la organización. El mayor coste es una cualificación errónea del sistema.
Detectamos prácticas que hay que retirar del uso para no incurrir en una infracción directa del art. 5.
Mapeamos el sistema con los requisitos del art. 8-17: evaluación de la conformidad, registros, supervisión humana y control de calidad.
Diseñamos la transparencia para chatbots, contenidos sintéticos e interfaces que interactúan con el usuario.
Construimos un modelo de gobernanza ligero: registro de IA, reglas de uso y mecanismo de notificación de incidentes y de uso no autorizado de IA.
El usuario tiene que saber que se está comunicando con una IA.
Los contenidos requieren un etiquetado claro y reglas de publicación.
Para los contenidos generados por IA preparamos estándares técnicos y operativos de etiquetado.
Trabajamos en 10 etapas. Cada una concluye con un documento que se puede mostrar al regulador, al auditor y al consejo de administración.
Verificamos si la organización está sujeta al AI Act y en qué rol: hacemos un inventario de sistemas de IA, cualificamos los usos y asignamos los roles regulatorios.
Como resultado, el registro de sistemas de IA y la ficha de cualificación de la organización.
Determinamos el nivel de riesgo de cada sistema de IA y eliminamos las prácticas prohibidas: analizamos el anexo III, verificamos el art. 5, cualificamos la elaboración de perfiles y mapeamos las obligaciones de transparencia.
Como resultado, el dictamen de clasificación, la matriz de categorías de riesgo y el informe de estado de GPAI.
Construimos el cumplimiento de los sistemas de alto riesgo: implantamos la gestión del riesgo, la gobernanza de los datos, la documentación técnica, la supervisión humana, la ciberseguridad y la evaluación de la conformidad.
Como resultado, el paquete de cumplimiento high-risk y la ruta de la declaración UE.
Implantamos las obligaciones para los modelos de uso general (GPAI) y sus integradores: documentación según los anexos XI/XII, política de derechos de autor, resumen de los datos de entrenamiento y, en caso de riesgo sistémico, también evaluaciones y notificación de incidentes.
Como resultado, el paquete de cumplimiento GPAI.
Implantamos los avisos exigidos para los usuarios y los destinatarios de contenido de IA: diseñamos información para chatbots y deepfake, el estándar de etiquetado de contenido de IA y los procedimientos de publicación.
Como resultado, el paquete de avisos de transparencia y la especificación de etiquetado de contenido.
Definimos la responsabilidad interna y el modelo de gobernanza de IA: nombramos a la persona o comité de IA, redactamos políticas de uso y compras, verificamos a los proveedores y, donde lo exige la ley, preparamos la evaluación de impacto sobre los derechos fundamentales (FRIA).
Como resultado, el modelo de gobernanza de IA y el informe de evaluación de impacto (FRIA).
Conectamos el AI Act con las obligaciones sectoriales y de ciberseguridad existentes: lo integramos con RGPD, DORA, NIS2, MiCA/PSD2/AML y CRA/DSA y ordenamos una única lista de tareas de cumplimiento.
Como resultado, la matriz regulatoria y el plan de mantenimiento del cumplimiento.
Construimos las competencias de los equipos conforme al art. 4 del AI Act: preparamos una matriz de formaciones para el consejo de administración, el área de cumplimiento, el equipo técnico, RR. HH., ventas y toda la organización.
Como resultado, el programa de competencias en IA, el registro de formaciones y los certificados.
Mantenemos el cumplimiento tras la puesta en producción del sistema: ejecutamos monitorización continua, procedimiento de notificación de incidentes, informes trimestrales y evaluación del impacto de los cambios.
Como resultado, el plan de monitorización post-implantación y el procedimiento de notificación de incidentes.
Pasamos de una lista de obligaciones a una ventaja sostenida en ventas y verificación de socios: preparamos la disposición ante inspecciones, el plan de auditoría, soporte a la certificación y materiales que generan confianza en la IA.
Como resultado, el informe de auditoría anual de IA y el paquete de evidencias de cumplimiento.
Al planificar el presupuesto y las prioridades cuentan las fechas concretas. A continuación, los hitos que más a menudo determinan el orden del proyecto de implantación.
Inicio de la prohibición de prácticas inadmisibles (art. 5) y de la obligación de alfabetización en IA (art. 4).
Entrada en vigor de las obligaciones para los proveedores de GPAI y puesta en marcha de los mecanismos de supervisión.
Hito clave: amplio conjunto de obligaciones para sistemas high-risk y de transparencia, además de la plena aplicación de la normativa.
Obligaciones adicionales para sistemas high-risk del anexo I y cierre de las disposiciones transitorias para los modelos de uso general (GPAI).
Plazo final para determinados sistemas de IA a gran escala del anexo X.
Estado normativo / material: 19 de febrero de 2026.
Una única implantación coherente que cubra varias regulaciones es más barata y segura que llevar proyectos de cumplimiento por separado.
Combinamos la evaluación de riesgos de IA con la evaluación de impacto en la protección de datos (DPIA), la elaboración de perfiles y el art. 22 RGPD para evitar contradicciones entre la protección de la privacidad y la gobernanza de la IA.
Integramos los sistemas de IA en la gestión del riesgo de TI, las pruebas de resiliencia y los planes de continuidad operativa.
Sincronizamos la ciberseguridad, la gestión de la cadena de suministro y la notificación de incidentes.
Para los fintech clasificamos la IA en los procesos de evaluación del riesgo del cliente, prevención del blanqueo de capitales (AML/KYC) y detección del fraude como potencialmente high-risk.
Ordenamos los requisitos de ciberseguridad del producto y de transparencia algorítmica en los canales de plataforma.
Una implantación eficaz del AI Act requiere una estructura de decisión estable, políticas operativas y un plan de formación para toda la organización.
Si ya tienes políticas, las integramos en un único modelo operativo y ordenamos la documentación para una inspección del regulador.
Reserva una cualificación del proyectoEn la primera conversación determinaremos en qué fase estás: diagnóstico, implantación para sistemas de alto riesgo o mantenimiento del cumplimiento tras el lanzamiento.
Indica si necesitas un diagnóstico de AI Act, un proyecto de implantación para sistemas de alto riesgo o un modelo de monitorización y auditoría anual.