La expansión de herramientas de inteligencia artificial ha generado nuevos retos éticos y sociales, especialmente entre adolescentes. Un estudio reciente publicado en PLOS One indica que más de la mitad de los jóvenes de 13 a 17 años en Estados Unidos ha utilizado aplicaciones de IA para crear imágenes de desnudos, ya sea de sí mismos o de otras personas.
Esta práctica generalizada plantea serias preocupaciones sobre la privacidad, el consentimiento y la exposición a riesgos digitales en una generación permanentemente conectada.
La investigación, dirigida por Chad Steel de la Universidad George Mason, ofrece evidencia a gran escala sobre el uso de tecnologías de “nudificación” con IA entre menores en Estados Unidos.
Cuál es el problema de la IA con los adolescentes
Según el estudio, el 55,3% de los adolescentes encuestados admitió haber creado al menos una imagen de desnudos mediante IA, y el 54,4% recibió imágenes generadas digitalmente de este tipo.
Preocupa que el 36,3% aseguró que alguien creó una imagen suya sin su consentimiento y el 33,2% dijo que esas imágenes fueron compartidas sin permiso.
Los participantes masculinos mostraron tasas más altas de creación y distribución, aunque tanto chicos como chicas resultan afectados, como autores y como víctimas. El problema se ve agravado por la facilidad de acceso a estas herramientas, su bajo coste y la limitada regulación efectiva.
Cómo funcionan las apps de desnudos con IA
Las aplicaciones de “nudificación” emplean IA para transformar una fotografía real en una versión falsa en la que la persona aparece desnuda, es decir, generan deepfakes a partir de una imagen existente. A diferencia de los generadores basados solo en texto, estas apps necesitan una foto real como punto de partida, lo que identifica directamente a una persona concreta como víctima.
El uso de estas herramientas supera al de los generadores tradicionales de imágenes ficticias, lo que confirma que el problema está ligado a la manipulación de fotos reales de conocidos y no solo a la creación de figuras inventadas.
Casos de personajes públicos como Taylor Swift y Selena Gómez han puesto de relieve el alcance de estas tecnologías. Plataformas y aplicaciones como ClothOff y el chatbot Grok de xAI han sido señaladas por producir miles de imágenes sexualizadas diariamente, lo que llevó a algunas empresas a limitar su funcionamiento e introducir nuevas políticas de protección.
Cuáles son los riesgos, impacto y desafíos legales
El estudio advierte que la producción y difusión de contenido explícito mediante IA no ha disminuido pese a las restricciones y políticas de plataformas. El fácil acceso y el anonimato en mercados grises digitales dificultan el control efectivo. Las víctimas sufren violaciones de privacidad, acoso y extorsión, y en muchos casos el material se propaga masivamente sin mecanismos de bloqueo inmediatos.
Los investigadores recomiendan iniciar intervenciones educativas antes de los 13 años, ya que no se observaron diferencias significativas entre los distintos grupos de edad analizados. También instan a los legisladores a revisar el marco legal vigente y a los desarrolladores a implementar barreras técnicas que frenen el uso indebido de estas tecnologías.
Qué hacer si eres víctima de un deepfake
La guía de VerificaRTVE, elaborada con expertos, sugiere los siguientes pasos:
Recopilar pruebas: capturas de pantalla con fecha y hora, guardar URLs, descargar el contenido y documentar toda la información relevante. Denunciar en la plataforma: usar las herramientas de denuncia por suplantación o acoso y solicitar la retirada inmediata. Denunciar ante las autoridades: acudir a fuerzas de seguridad y unidades de delitos telemáticos, aportando todas las pruebas reunidas. Contactar con un abogado especializado: para emprender acciones legales y reclamar la retirada del contenido y posibles indemnizaciones. Solicitar medidas cautelares: pedir al juez la eliminación urgente del material mientras se tramita el caso. Preservar la salud mental: buscar apoyo profesional ante el impacto psicológico del ciberacoso. Recurrir a recursos oficiales: consultar organismos como INCIBE o la Agencia Española de Protección de Datos para orientación y apoyo.
La prevención y una respuesta rápida son fundamentales para contener un fenómeno que crece junto con la tecnología y que desafía los mecanismos actuales de protección.



