El Parlamento Europeo y los Estados miembros de la Unión Europea alcanzaron un acuerdo para prohibir aplicaciones de inteligencia artificial capaces de generar imágenes de desnudos sin consentimiento y contenido relacionado con pornografía infantil. La medida busca reforzar la protección de los derechos fundamentales frente al crecimiento de los llamados “deepfakes” sexuales.

El acuerdo modifica y simplifica aspectos de la recientemente aprobada Ley de Inteligencia Artificial de la Unión Europea, con el objetivo de establecer controles más estrictos sobre el uso de tecnologías generativas que puedan ser utilizadas para crear contenido sexual manipulado o abusivo.

La nueva normativa impedirá el funcionamiento de sistemas de IA diseñados para producir imágenes o videos donde aparezcan personas identificables participando en actos sexuales explícitos o mostrando partes íntimas sin haber dado autorización. También quedará prohibida cualquier herramienta que genere material de abuso sexual infantil mediante inteligencia artificial.

Las autoridades europeas señalaron que la decisión responde al creciente uso de plataformas y aplicaciones que permiten alterar fotografías reales para crear imágenes sexualizadas falsas. El tema cobró mayor atención luego de reportes sobre herramientas de IA que habrían sido utilizadas para producir millones de imágenes manipuladas, incluyendo contenido relacionado con menores de edad.

La vicepresidenta de la Comisión Europea encargada de política digital, Henna Virkkunen, afirmó que la regulación busca equilibrar innovación tecnológica y seguridad digital. Según explicó, los ciudadanos y empresas europeas necesitan reglas claras que permitan desarrollar inteligencia artificial sin poner en riesgo la dignidad humana ni los derechos fundamentales.

Por su parte, el legislador Michael McNamara, vinculado a la comisión de Libertades Civiles, Justicia y Asuntos de Interior, destacó que la nueva normativa permitirá actuar contra proveedores de IA cuyos sistemas representen amenazas para la privacidad y la integridad de las personas.

Las empresas tecnológicas tendrán plazo hasta el 2 de diciembre para adaptar sus plataformas y establecer medidas de seguridad que impidan la generación de este tipo de contenido. Entre las exigencias se incluyen mecanismos de control y restricciones automáticas dentro de los sistemas de inteligencia artificial.

Además de las nuevas prohibiciones, la revisión de la Ley de IA contempla retrasar la aplicación de algunas regulaciones para permitir que compañías y autoridades desarrollen estándares técnicos y herramientas necesarias para implementar correctamente las normas.

Europa se posiciona así como una de las regiones con legislación más estricta sobre inteligencia artificial y protección digital. Las autoridades consideran que el rápido avance de estas tecnologías requiere reglas más precisas para evitar abusos, especialmente en casos relacionados con privacidad, manipulación de imágenes y explotación sexual.

El debate sobre los deepfakes sexuales ha aumentado en los últimos años debido al crecimiento de aplicaciones capaces de crear contenido falso altamente realista. Organizaciones defensoras de derechos digitales y protección infantil han advertido sobre los riesgos que estas herramientas representan para mujeres, menores de edad y víctimas de acoso en internet.

Con este acuerdo, la Unión Europea busca establecer límites más claros al desarrollo de sistemas de inteligencia artificial y reforzar la responsabilidad de las compañías tecnológicas frente al contenido generado por sus plataformas.

Nueva app cristiana en EEUU bloqueará contenido LGBT y pornografía