Uno de los puntos más candentes del incipiente 2026 es la generación de imágenes de terceros por inteligencia artificial, especialmente cuando no es consensuada. Actualmente cualquier persona resulta capaz de tomar una foto o vídeo de alguien y subirla a herramientas de inteligencia artificial, lo que puede tener consecuencias devastadoras.

Por ello, la Agencia Española de Protección de Datos (AEPD) ha publicado un comunicado que explica las implicaciones de usar imágenes o vídeos de terceros —aunque de forma indirecta también del propio usuario— en sistemas de inteligencia artificial. Aunque parezca trivial e inocuo, puede tornarse una pesadilla.

Así es como subir una foto de un tercero pone en riesgo su imagen

Lo primero a tener en cuenta es que existen dos tipos de riesgos cuando subimos una imagen de otra persona en una herramienta de inteligencia artificial:

  • Visibles: la propia generación de contenidos. Es muy posible que esa persona no apruebe la generación de contenido, el cual puede presentar a dicha persona de forma verosímil en situaciones que le disgusten o, directamente, sean humillantes.
  • Invisibles: son los riesgos que aparecen únicamente por subir la imagen, aunque no se difunda el contenido. Por ejemplo, subir la foto de alguien implica que los datos de dicha persona puedan alojarse en el servidor de la IA.

Un buen ejemplo de los riesgos visibles sería la sexualización de terceros que se está realizando en Twitter (red social oficialmente conocida como X). Este sería un ejemplo claro, pero también cuando se le pide a una IA que sitúe al tercero en una situación que jamás ha sucedido, especialmente si es embarazosa, ilegal o que vulnera su honor.

Respecto al honor, la AEPD indica que prestará especial atención a casos donde el tercero sea sexualizado o se le exponga en contenido verosímil, pero que no han sucedido, como podría ser robando material de trabajo. Además, cuidará atentamente los casos donde las víctimas sean menores o personas vulnerables.

Además, resulta vital tener en cuenta que el uso de la imagen de terceros en herramientas de IA no se trata exclusivamente de materia de la Agencia Española de Protección de Datos. Pueden entrar otros derechos (honor, intimidad, propia imagen), especialmente con las personas fallecidas. También podría implicar al Código Penal.

Por otro lado, los riesgos invisibles resultan igual de peligrosos. Subir una imagen no es un acto neutro, sino que compromete riesgos como la pérdida efectiva de control de la imagen de la persona, ya que la IA puede hacer copias o retenciones, y resulta difícil verificar que se ha eliminado la copia. También se pueden generar metadatos técnicos con la imagen de la persona o que, directamente, se inicie un efecto multiplicador, mediante el cual dicho tercero pueda aparecer en otros contenidos generados por la IA.

En definitiva, la AEPD insiste en que subir imágenes o vídeos de terceros a la IA, incluso con intención banal o sin que se publiquen los resultados, supone un riesgo. El tercero puede perder el control de su imagen, y recuperarla resulta muy complicado, ya que la regulación de la IA todavía está en sus primeros pasos.

Fuente: larazon.es

https://www.larazon.es/tecnologia-consumo/aepd-publica-nota-informativa-consecuencias-inteligencia-artificial_202601136966257c5b0f02269960bf5d.html