domingo, 30 de noviembre de 2025

[731] La AEPD frente a la IA: Una hoja de ruta para una Administración más inteligente y segura


La Agencia Española de Protección de Datos ha publicado un documento para el uso de inteligencia artificial generativa (IAG) en sus procesos administrativos. El texto marca un antes y un después: La AEPD se posiciona como institución pionera al apostar por un modelo “IA first”, pero con pies de plomo, mucha técnica y un marco de garantías sólido.
Un objetivo claro
La AEPD quiere integrar la IA como una herramienta cotidiana en la Administración, reforzando la eficacia, la calidad de los servicios y la transparencia. Todo bajo una idea central: la innovación solo es válida si respeta los derechos fundamentales, especialmente la protección de datos.
Dónde usar la IA
La política identifica un amplio abanico de usos posibles, desde tareas inocuas hasta procesos más delicados:
•Resumir y estructurar documentos públicos.
•Traducir contenidos.
•Generar materiales de comunicación, infografías o vídeos sintéticos.
•Preparar borradores de informes, estudios jurídicos y materiales formativos.
•Automatizar tareas internas: clasificación de quejas, apoyo en EIPD, gestión del plan estratégico o tramitación de expedientes.
•Crear asistentes internos para consultas jurídicas y procedimentales.
Todo ello siempre con revisión humana obligatoria y sin decisiones automatizadas que afecten a derechos.
Los riesgos bajo lupa
La AEPD detalla los riesgos asociados: sesgos, alucinaciones, fallos de seguridad, filtraciones de información, pérdida de control organizativo o impactos en la confianza ciudadana. Cada caso de uso deberá analizarse con lupa, sin automatismos ni atajos.
Un modelo de gobernanza completo
El documento establece roles muy concretos: responsables funcionales, técnicos, de seguridad, el Delegado de Protección de Datos y un Responsable de IA que coordina todo el despliegue. Nada se deja al azar.
Además, introduce requisitos estrictos para:
•Transparencia interna.
•Trazabilidad y registro básico de interacciones.
•Supervisión humana efectiva.
•Ciberseguridad reforzada (ENS, buenas prácticas, aislamiento de entornos).
•Formación obligatoria para todo el personal.
Qué tipo de IA permite y cómo seleccionarla
La política establece tres enfoques:
•Sistemas externos (como ChatGPT),
•Sistemas desplegados en infraestructura propia,
•Modelos ad-hoc entrenados para la AEPD.
Cuando haya datos personales o información sensible, la preferencia es clara: sistemas internos o ad-hoc, donde exista control total sobre flujos, seguridad y entrenamiento.
Procedimientos estrictos
Todo caso de uso debe pasar por:
•Análisis de riesgos,
•Revisión jurídica y de seguridad,
•Pruebas de concepto,
•Planes de formación,
•Verificación y validación antes de entrar en servicio,
•Supervisión periódica con auditorías internas o externas.
Conclusión
La AEPD lanza una política sólida, pragmática y alineada con el interés público. No pretende aplicar el Reglamento Europeo de IA —y lo deja claro—, sino construir un marco interno que garantice una transformación digital segura, ética y responsable.
Un documento que no solo ordena el uso de la IA en la Agencia, sino que marca un estándar de referencia para todas las administraciones públicas españolas que quieran avanzar en la IA sin poner en riesgo derechos ni confianza ciudadana.

No hay comentarios:

Publicar un comentario