15 de enero de 2026
Buenos Aires, 23 C

Reino Unido exige a Elon Musk medidas urgentes contra deepfakes sexuales de menores en X

El Gobierno británico pidió este martes a Elon Musk y a la red social X que adopten medidas urgentes para frenar el uso de Grok, la herramienta de inteligencia artificial de la plataforma, tras detectarse deepfakes sexuales que involucraron a menores. La solicitud llega en un contexto de creciente presión regulatoria y cuestionamientos sobre la moderación de contenidos desde la llegada de Musk al control de la compañía.

La ministra de Tecnología, Liz Kendall, respaldó las advertencias del regulador Ofcom, que expresó “serias preocupaciones” por una función de Grok capaz de generar “imágenes de personas con poca ropa e imágenes sexualizadas de niños”. Kendall calificó el material visto en los últimos días como inaceptable y urgió a X a abordar el problema de inmediato.

Kendall señaló que nadie debería ver deepfakes íntimos suyos en internet y afirmó que el Gobierno no permitirá la proliferación de imágenes humillantes y degradantes, que afectan de manera desproporcionada a mujeres y niñas. También reiteró su apoyo a Ofcom ante posibles medidas coercitivas contra la plataforma.

X reconoció la existencia de casos problemáticos. En la cuenta oficial de Grok admitieron “casos aislados” en que usuarios generaron imágenes de inteligencia artificial con “menores con escasa ropa” y dijeron estar trabajando para bloquear ese tipo de solicitudes. Musk advirtió que quienes usen Grok para generar contenido ilegal enfrentarán las mismas consecuencias que por otros medios, después de un primer momento en que minimizó el problema.

El episodio se enmarca en la Online Safety Act británica, que tipifica como delitos el abuso de imágenes íntimas y el ciberexhibicionismo, incluidos los cometidos mediante inteligencia artificial. La ley obliga a las plataformas a prevenir o retirar con rapidez este tipo de contenidos.

Más allá del caso puntual de Grok, el reclamo británico se suma a críticas sobre el deterioro del ecosistema informativo y del debate público en X desde 2022. Investigaciones han documentado recortes en los equipos de confianza y seguridad, cambios en la aplicación de normas internas y la reinstalación de cuentas previamente suspendidas por incitación al odio o desinformación.

Organizaciones como el Center for Countering Digital Hate y la Anti-Defamation League advirtieron sobre un aumento de lenguaje racista, antisemita y misógino en la plataforma tras los cambios. X rechaza esas conclusiones, aunque análisis editoriales, como los de The Economist, sostienen que la reducción de controles de moderación y una interpretación amplia de la “libertad de expresión” aumentaron la visibilidad de contenidos abusivos y extremos.

El problema no se limita al discurso de odio: reportes de Reuters, BBC y The Wall Street Journal han señalado fallas persistentes en la detección y eliminación de material sexual no consentido y demoras en la respuesta a denuncias. Expertos advierten que la expansión de herramientas de IA generativa aumenta el riesgo de producción masiva de deepfakes sexuales, con un impacto particular sobre mujeres y menores.

Paralelamente, X enfrenta creciente presión regulatoria en otras jurisdicciones. La Comisión Europea abrió procedimientos formales bajo la Ley de Servicios Digitales (DSA) para evaluar cumplimiento en gestión de riesgos y transparencia, mientras anunciantes y organizaciones civiles han reducido su presencia por temor a la asociación con contenido tóxico. Para el Gobierno británico, el caso Grok supone un punto de inflexión: no es solo un fallo técnico, sino una señal sobre la gobernanza de un espacio clave del debate público digital en un momento en que la IA amplifica oportunidades y daños.

Artículo anterior

Moria Casán emocionada por su cumpleaños 80

Artículo siguiente

Kami Franco toma decisión tras la traición de su madre

Continuar leyendo

Últimas noticias