AEPD: Protección de datos en la IA Agéntica


Manuel Castilleja Toscano     19/02/2026


Orientaciones sobre Inteligencia Artificial Agéntica desde la perspectiva de protección de datos

La Agencia Española de Protección de Datos (AEPD) ha publicado unas orientaciones sobre Inteligencia Artificial (IA) Agéntica desde la perspectiva de protección de datos. La IA Agéntica son sistemas de IA capaces no solo de responder a preguntas, sino de interactuar de forma autónoma para conseguir los objetivos que se pretenden.

Estas orientaciones suponen un marco detallado para integrar la IA Agéntica en los tratamientos de datos personales, enfocándose en que el tratamiento de datos personales que suponga el uso de estos sistemas autónomos cumpla con el RGPD.

Los puntos esenciales que se abordan en lo referente al cumplimiento del RGPD son:

1. Definición y responsabilidades

  • Definición: los agentes de IA no son un tratamiento de datos con un fin determinado en sí mismos, sino medios para automatizar tratamientos.
  • Responsabilidades: el Responsable del Tratamiento, por tanto, mantiene la obligación de garantizar el cumplimiento del RGPD, independientemente de la autonomía del agente.

Es esencial identificar la relación con los proveedores de los agentes. Si el agente accede a servicios externos enviando datos personales, estos proveedores normalmente tratan los datos siguiendo las instrucciones de responsable y por tanto como encargados del tratamiento, si bien si determinan sus propios fines adquirirían la condición de responsables del tratamiento.

  • Actualización del RAT: si hi ha nous fins, legitimacions, intervinents, categories de dades, transferències internacionals, decisions automatitzades, terminis de conservació, etc. cal actualitzar el Registre d'Activitats de Tractament (RAT).

2. Principios del RGPD

Las orientaciones destacan cómo la IA Agéntica desafía los principios relativos al tratamiento:

  • Licitud, Lealtad y Transparencia (art. 5.1.a RGPD):
    • Si la implementación de los sistemas de IA Agéntica no implica tratamientos adicionales más allá del tratamiento original, no será necesario buscar legitimaciones para su inclusión en el tratamiento.
    • Si hay decisiones automatizadas con efectos jurídicos para ellos o transferencias internacionales, se deberá informar a los interesados.
  • Limitación de la finalidad (art. 5.1.b RGPD): se debe evitar que los datos recogidos para un trámite se usen para otros fines no legitimados, como el reentrenamiento de modelos de lenguaje de terceros.
  • Minimización de datos (art. 5.1.c RGPD): los agentes deben diseñarse para recoger solo los datos estrictamente necesarios. Se alerta sobre el riesgo de que agentes de "investigación profunda" recopilen datos excesivos de internet o repositorios internos sin control.
  • Exactitud (art. 5.1.d RGPD): la IA puede "alucinar" o usar datos obsoletos de su memoria, lo que incumpliría el principio de exactitud.
  • Conservación (art. 5.1.e RGPD): la información almacenada ha de ser la mínima necesaria para la operación del agente. No solo se trata de la información con relación a secretos comerciales o propiedad industrial, sino en particular de la información personal de la persona usuaria, de los sujetos sometidos a tratamiento o terceros, incluyendo información que puede inferir un perfil de cualquiera de ellos.
  • Confidencialidad (art. 5.1.f RGPD): un agente podría usar datos de un usuario A para inferir respuestas al usuario B, provocando brechas de confidencialidad.

Se advierte sobre ataques como la “inyección de prompts” (manipular al agente para que ignore sus instrucciones de seguridad) que pueden derivar en fugas de datos. Como medida de seguridad, se propone el “Sandboxing” (aislar la ejecución del agente) para que un fallo no comprometa toda la organización.

3. Ejercicio de Derechos

El uso de agentes no puede mermar los derechos de los interesados, de tal forma que el sistema debe estar diseñado técnicamente para permitir el ejercicio del derecho de:

  • Acceso: saber qué hay en la memoria del agente sobre una persona.
  • Rectificación: si el agente ha "aprendido" algo incorrecto sobre una persona (ej. una dirección antigua o un estado civil erróneo) y lo tiene en su memoria, debe existir un mecanismo técnico para corregir ese dato en el contexto del agente. Si no se corrige, el agente seguirá tomando decisiones erróneas basadas en datos obsoletos (alucinaciones o inferencias falsas).
  • Supresión: poder borrar datos específicos de la memoria a largo plazo del agente (o "higienizar" la memoria) sin tener que destruir todo el modelo.
  • Limitación: cuando se den alguna de las circunstancias contempladas en el art. 18.1 RGPD
  • Portabilidad: en los casos de tratamientos basados en consentimiento o relación contractual.
  • Oposición: el usuario debe poder oponerse a que el agente trate sus datos para ciertos fines o limitar el tratamiento.
  • No ser objeto de decisiones automatizadas: si el agente toma decisiones basadas únicamente en tratamientos automatizados que afectan jurídicamente o significativamente a la persona (ej. denegar un crédito, filtrar un CV), dándose alguna de las legitimaciones necesarias para ello, el interesado, salvo que el tratamiento esté autorizado por una ley, tendrá derecho a pedir intervención humana y a impugnar la decisión tomada.

4. Protección de Datos desde el Diseño y por Defecto (Privacy by Design by Default)

El responsable debe configurar el agente antes de usarlo, no basta con la configuración por defecto. Las medidas recomendadas incluyen:

  • Gobernanza: integrar la IA Agéntica en las políticas de la organización e involucrar al Delegado de Protección de Datos (DPO).
  • Listas blancas y Control de Herramientas: limitar a qué servicios externos (APIs, webs) puede acceder el agente. No darle acceso a "todo internet" si no es necesario.
  • Trazabilidad: mantener registros (logs) de qué datos procesó el agente y qué "cadena de razonamiento" siguió para llegar a una conclusión, permitiendo auditorías posteriores.
  • Gestión de Identidad: aplicar el principio de mínimo privilegio. El agente no debe tener credenciales de administrador ni acceso a todos los archivos de la organización, sino solo a los necesarios para su tarea.

5. Riesgos Específicos

Las orientaciones identifican dos elementos nucleares que generan nuevos riesgos de incumplimiento:

  • Memoria: a diferencia de un simple chat, los agentes recuerdan contextos pasados.
    • Riesgo: un agente podría usar datos de un usuario A para inferir respuestas al usuario B, provocando brechas de confidencialidad.
    • Medida: es obligatoria la compartimentación de la memoria entre distintos tratamientos y usuarios.
  • Autonomía (Decisiones Automatizadas): los agentes pueden actuar sin intervención humana constante.
    • Riesgo: si el agente toma decisiones que afectan jurídicamente o significativamente a la persona (ej. denegar un servicio), se deben aplicar garantías reforzadas, como la intervención humana y el derecho a impugnación.
    • Medida: se exige definir niveles de autonomía, para acciones de alto impacto o irreversibles (como borrar datos o hacer pagos), la intervención humana debe ser obligatoria ("Human-in-the-loop").