Estás leyendo
Watermarking en IA: la nueva obligación europea que las empresas deben preparar ya

Watermarking en IA: la nueva obligación europea que las empresas deben preparar ya

La inteligencia artificial ya forma parte del día a día de muchas empresas. Se utiliza para redactar textos, crear imágenes, generar vídeos, producir voces sintéticas, automatizar respuestas, diseñar campañas, preparar presentaciones, analizar datos o atender a clientes.

Durante los últimos años, la pregunta habitual ha sido: “¿Podemos usar IA para hacer esto?”. A partir de ahora, la pregunta correcta será otra: “¿Podemos demostrar de forma clara, transparente y trazable cuándo hemos usado IA?”.

Ahí entra en juego el watermarking, una de las nuevas obligaciones que marcará la aplicación práctica del AI Act europeo. No es solo una cuestión técnica. Es una cuestión de confianza, transparencia y responsabilidad empresarial.

Qué es el watermarking en inteligencia artificial

El watermarking es el conjunto de técnicas que permiten identificar que un contenido ha sido generado o manipulado mediante inteligencia artificial.

Puede tratarse de una advertencia visible, como “imagen generada con IA”, pero también de mecanismos técnicos invisibles, como metadatos, marcas digitales, sistemas de procedencia o identificadores legibles por máquinas. El objetivo es que una persona, una plataforma o una autoridad pueda detectar que un contenido ha sido creado o alterado con inteligencia artificial.

La Comisión Europea ha vinculado estas obligaciones al artículo 50 del AI Act, que regula la transparencia de determinados sistemas de IA, incluyendo el marcado y detección de contenidos generados por IA, el etiquetado de deepfakes y ciertas publicaciones generadas con IA sobre asuntos de interés público.

En otras palabras: no basta con usar IA. Las empresas tendrán que saber cuándo la usan, para qué la usan, quién la usa y cómo informan cuando el contenido generado puede afectar a terceros.

La fecha clave: 7 de mayo de 2026

El 7 de mayo de 2026, el Parlamento Europeo y el Consejo de la Unión Europea alcanzaron un acuerdo provisional para simplificar y reorganizar determinadas obligaciones del AI Act. Entre las medidas incluidas está el aplazamiento de la obligación de watermarking para contenidos generados con IA hasta el 2 de diciembre de 2026.

Es importante entender bien este punto. El acuerdo es provisional y todavía debe pasar por la aprobación formal de las instituciones europeas. Reuters también ha informado de que el pacto necesita la aprobación definitiva de los gobiernos de la UE y del Parlamento Europeo en los próximos meses.

Por tanto, el mensaje para las empresas es claro: aunque el texto final debe confirmarse, 2026 es el año para ordenar el uso corporativo de IA. Esperar a la fecha límite sería una mala estrategia.

Qué contenidos estarán afectados

El watermarking será especialmente relevante cuando la empresa genere o modifique contenidos con IA que puedan llegar a clientes, empleados, candidatos, proveedores o público general.

Esto incluye imágenes generadas con IA, vídeos sintéticos, audios artificiales, voces clonadas, avatares, deepfakes, modelos humanos falsos, campañas comerciales creadas con IA, respuestas automatizadas a clientes, publicaciones en redes sociales, contenidos para páginas web, newsletters, materiales de formación o textos informativos generados automáticamente.

La cuestión central no es si el contenido está bien hecho. La cuestión es si puede inducir a error.

Una imagen generada con IA para una campaña comercial puede parecer una fotografía real. Un avatar puede parecer una persona. Una voz sintética puede parecer la voz de alguien concreto. Un chatbot puede parecer un empleado humano. En todos esos casos, la empresa debe plantearse si tiene que informar, etiquetar, registrar o revisar antes de publicar.

El riesgo de hacer pasar contenido IA por contenido humano

El problema no es utilizar inteligencia artificial. El problema es utilizarla de forma opaca.

Las empresas deberían evitar publicar imágenes humanas generadas con IA como si fueran fotografías reales, usar voces clonadas sin consentimiento, simular declaraciones de personas reales, hacer pasar un chatbot por una persona, crear campañas con modelos artificiales sin avisar cuando puedan confundir o eliminar metadatos y marcas técnicas del contenido generado con IA.

También deben evitar introducir datos personales, información interna o datos de clientes en herramientas no autorizadas. El uso informal de aplicaciones gratuitas o personales puede generar riesgos de privacidad, seguridad, confidencialidad y cumplimiento normativo.

El acuerdo provisional de mayo de 2026 también incluye una prohibición específica sobre determinados sistemas destinados a generar contenidos sexuales no consentidos o material de abuso sexual infantil, con fecha prevista de adaptación hasta el 2 de diciembre de 2026.

Watermarking no significa burocracia: significa control

Muchas empresas ven estas obligaciones como un nuevo problema. En realidad, bien gestionadas, pueden convertirse en una ayuda.

El watermarking obliga a ordenar el uso de IA dentro de la empresa. Obliga a saber qué herramientas se utilizan, qué departamentos las usan, qué contenidos se generan, qué proveedores intervienen y qué riesgos existen antes de publicar.

Una empresa preparada no necesita prohibir la IA. Necesita gobernarla.

Para empezar, basta con aplicar una regla sencilla: si un contenido generado o modificado con IA va a llegar a clientes, empleados, candidatos o público general, debe revisarse antes de publicarse. Y si puede inducir a error, debe identificarse como contenido generado o modificado con inteligencia artificial.

Qué deben hacer las empresas ahora

El primer paso es elaborar un inventario básico de herramientas de IA. No tiene que ser complejo. La empresa debe saber si se usan ChatGPT, Copilot, Gemini, Midjourney, Runway, Canva AI, ElevenLabs, herramientas de automatización, chatbots, generadores de imagen, asistentes internos o cualquier otra solución basada en IA.

El segundo paso es aprobar una política interna sencilla. Esa política debe indicar qué herramientas están permitidas, qué usos requieren revisión, qué usos están prohibidos y quién debe autorizar la publicación de contenidos sensibles.

El tercer paso es revisar las áreas más expuestas: marketing, comunicación, recursos humanos, atención al cliente, ecommerce, IT, legal, protección de datos y compras. Estas áreas suelen ser las primeras en usar IA sin que exista todavía un sistema interno claro.

El cuarto paso es pedir información a proveedores. Muchas agencias, plataformas, consultoras y herramientas externas ya utilizan IA para prestar servicios. La empresa debe saber si esos proveedores generan contenidos con IA, si conservan trazabilidad, si aplican watermarking y si eliminan o no metadatos del contenido entregado.

El quinto paso es formar a los equipos. El AI Act no solo obliga a cumplir, también exige que las personas que utilizan IA tengan conocimientos suficientes para hacerlo de forma responsable. La alfabetización en IA será una parte clave del cumplimiento.

Marketing, comunicación y recursos humanos: los primeros departamentos que deben actuar

Marketing y comunicación son dos de las áreas con mayor exposición. Publican contenidos en redes sociales, preparan campañas, generan imágenes, editan vídeos, crean newsletters, redactan textos comerciales y utilizan herramientas creativas. Todo ese contenido puede llegar directamente al público.

Recursos humanos también debe actuar con cautela. El uso de IA en selección, cribado de currículums, evaluación, formación o comunicaciones con empleados puede afectar a personas concretas. En estos casos, la revisión humana, la transparencia y la documentación son esenciales.

lectura recomendada

IT o sistemas debe ayudar a identificar herramientas no autorizadas, controlar accesos, revisar integraciones y comprobar si las soluciones contratadas ofrecen mecanismos de trazabilidad. Legal, compliance y protección de datos deben revisar los riesgos normativos. Compras debe incorporar preguntas sobre IA en la contratación de proveedores.

La clave está en coordinar estas áreas, no en cargar a cada departamento con obligaciones difíciles de gestionar.

El papel del Chief Ethics Officer externo

En este nuevo escenario, el Chief Ethics Officer externo puede ser una figura muy útil para las empresas que quieren utilizar IA sin exponerse a riesgos innecesarios.

Su función no es frenar la innovación. Su función es ordenar el uso de la inteligencia artificial para que la empresa pueda aprovecharla con seguridad, transparencia y criterio.

Un Chief Ethics Officer externo puede revisar los usos actuales de IA, clasificar riesgos, preparar políticas internas, definir cuándo debe etiquetarse un contenido, establecer criterios de watermarking, formar a los equipos, revisar proveedores, coordinar marketing, legal, recursos humanos e IT, y ayudar a documentar evidencias de cumplimiento.

En la práctica, esto permite que la empresa no tenga que interpretar sola toda la normativa. El objetivo es convertir una obligación europea en un sistema de trabajo claro, asumible y útil para el negocio.

La transparencia será una ventaja competitiva

El watermarking no debe entenderse como una carga aislada. Es parte de un cambio más amplio: la necesidad de demostrar autenticidad en un entorno donde cada vez será más difícil distinguir lo real de lo artificial.

Las empresas que sepan explicar cómo usan la IA generarán más confianza. Las que actúen de forma opaca se enfrentarán a riesgos legales, reputacionales y comerciales.

La pregunta ya no es únicamente si una empresa puede crear contenido con IA. La pregunta es si puede demostrar de forma clara, honesta y trazable cómo se ha creado ese contenido.

Esa será una de las grandes diferencias entre las empresas que simplemente usan inteligencia artificial y las empresas que la gobiernan correctamente.

¿Quieres auditar el uso de IA en tu empresa?

En The Intelligence ayudamos a empresas a prepararse para el AI Act, revisar sus usos actuales de inteligencia artificial, ordenar sus herramientas, establecer políticas internas, formar equipos y definir criterios de transparencia, watermarking y trazabilidad.

También podemos actuar como tu Chief Ethics Officer externo, acompañando a dirección, marketing, recursos humanos, IT, legal, compliance y proveedores para que el uso de IA sea seguro, responsable y alineado con las nuevas exigencias europeas.

Para auditar tu empresa o solicitar nuestro servicio como Chief Ethics Officer externo, escríbenos a:

info@theintelligence.institute


Descubre más desde THE INTELLIGENCE

Suscríbete y recibe las últimas entradas en tu correo electrónico.

¿Cuál es tu reacción?
ES FASCINANTE
0
ME ENCANTA
0
ME GUSTA
0
NO ME GUSTA
0
NO SÉ
0
Ver comentarios

Deja un comentario