Buscar
Verdadero o Falso

Por fin queda prohibido crear imágenes sexualizadas generadas con IA

La UE llega un acuerdo para poner ilegalizar unas prácticas que permitió Grok hace unos meses
Grok, la IA de X que desató el escándalo de las imágenes sexualizadas.
Grok, la IA de X que desató el escándalo de las imágenes sexualizadas. / Efe

Actualizado hace 2 minutos

A finales de diciembre, la inteligencia artificial (IA) Grok, desplegada en la red social X (propiedad de Elon Musk) provocó un gran escándalo al incorporar un generador de imágenes que creó alrededor de tres millones de imágenes sexualizadas durante los 11 días que estuvo disponible, incluidas 23.000 con representación de menores y 1,8 millones con mujeres.

La UE reacciona a Grok

El 2 de enero, la compañía reconoció fallos en las salvaguardias de Grok, tras la aparición de publicaciones en las que el chatbot desnudaba a mujeres y niños, modificando imágenes para poner bikinis o escenas sexuales, sin el consentimiento de las víctimas. Tras recibir múltiples quejas de usuarios y autoridades de la UE, Reino Unido y España, la empresa limitó la herramienta el 9 de enero solo para miembros de pago y finalmente el 14 de enero bloqueó la generación de imágenes sexualizadas para todos los usuarios.

Con la intención evitar más casos lamentables como el de Grok, las instituciones de la Unión Europea han llegado a un acuerdo para prohibir la creación de imágenes sexualizadas generadas con inteligencia artificial sin el consentimiento de las personas afectadas. El pacto, alcanzado el pasado jueves, prohíbe los sistemas de inteligencia artificial cuyo único propósito es el de generar este tipo de imágenes o de abuso sexual infantil, además de los que se pueden emplear para múltiples propósitos, si no tienen “medidas de seguridad razonables” para evitar la propagación de este contenido.

Lo promueven España, Francia y Alemania

El veto entrará en vigor el 2 de diciembre de 2026, con lo que Grok tendrá hasta finales de año para diseñar medidas de protección adecuadas. “Nuestras empresas y ciudadanos quieren dos cosas de las reglas de inteligencia artificial. Quieren poder innovar y sentirse seguros. Este acuerdo hace ambas cosas”, afirmó la vicepresidenta de la Comisión Europea encargada de la política digital, Henna Virkkunen.

En una iniciativa que ha promovido España junto a otros países como Francia y Alemania, la UE añade así una limitación adicional a la generación de este tipo de contenido, perseguido ya por el derecho penal en los Estados miembros. “España sigue liderando el despliegue de un modelo europeo propio de IA, que ha de caracterizarse por ser el más confiable de todos, en línea con las iniciativas aprobadas por el Gobierno de España en los últimos meses”, señaló el ministro para la Transformación Digital y la Función Pública de España, Óscar López.

Además, las instituciones comunitarias retrasaron hasta diciembre de 2026 la obligación de incorporar marcas de agua a todo tipo de contenido generados con inteligencia artificial, ya sean fotos, vídeos o audio, para que los usuarios puedan detectar con facilidad que se han generado con una máquina.

Los sistemas de IA de alto riesgo tendrán más plazo para adaptarse

El acuerdo pospone también hasta el 2 de diciembre de 2027 las obligaciones que la ley de inteligencia artificial de la UE impone a los sistemas de alto riesgo, como los que se usan para proteger a infraestructuras críticas, los que emplean los bancos para calcular la probabilidad de devolución de un préstamo, para contratar a personal o, por ejemplo, gestionar el control de las fronteras.

Inicialmente, la ley estableció este año para la entrada en vigor de estas obligaciones, pero las instituciones comunitarias han pactado un retraso de dieciséis meses porque Bruselas aún no ha diseñado los requisitos técnicos que deberán cumplir los sistemas de IA para ser seguros, sin poner en riesgo a las personas o vulnerar derechos fundamentales.

La reforma de la ley europea de IA busca reducir la burocracia

El acuerdo también permite el procesamiento de datos personales cuando sea “estrictamente necesario para detectar y corregir sesgos” que puedan adquirir los sistemas de inteligencia artificial durante su fase de entrenamiento, con el riesgo de amplificarlos posteriormente.

La reforma de la ley de inteligencia artificial se ha pactado, principalmente, con el pretexto de reducir la carga burocrática a las empresas y con este objetivo se ha eximido a varios sectores industriales de tener que cumplir los requisitos de transparencia o de notificación de incidentes que la norma prevé para los sistemas de alto riesgo. Productos como dispositivos médicos, juguetes o ascensores estarán exentos de tener que demostrar que sus sistemas de IA son seguros si otras normas sectoriales ya les imponen requisitos similares.

Las grandes tecnológicas critican los cambios en la Ley de IA

La organización CCIA Europe, que representa los intereses de las grandes tecnológicas, mostró su rechazo a la reforma. “Dadas las mínimas mejoras introducidas en la Ley de IA, resulta difícil ignorar la enorme brecha que existe entre la retórica política sobre la simplificación regulatoria y los resultados concretos”, dijo en un comunicado.

2026-05-14T15:16:52+02:00
En directo
Onda Vasca En Directo