Mythos, el sistema más restringido de Anthropic, habría sido puesto a disposición de la Agencia de Seguridad Nacional de EE. UU. a pesar de las discrepancias con el Departamento de Defensa, según informó Axios. La NSA tendría acceso a Mythos Preview, un modelo avanzado de inteligencia artificial catalogado como de alta sensibilidad, en medio del conflicto entre la compañía y el Pentágono.
Este uso se da en un contexto de tensión sobre la regulación y el control de modelos de IA en ámbitos militares y de seguridad nacional.
Mythos Preview: características, acceso restringido y uso en la NSA
Mythos Preview no está disponible para el público general; Anthropic limitó su acceso a unas 40 organizaciones seleccionadas debido a sus capacidades en ciberseguridad, consideradas demasiado sensibles para una distribución amplia.
Solo 12 de esos usuarios han sido identificados públicamente; el resto permanece en el anonimato. Axios señala que la Agencia de Seguridad Nacional sería uno de los usuarios confidenciales, aunque no se han detallado las tareas concretas que realiza con el modelo.
Fuentes consultadas indican que otras organizaciones emplean Mythos Preview principalmente para auditar sus propias infraestructuras y detectar vulnerabilidades explotables antes de que actores hostiles puedan aprovecharlas.
Asimismo, se informa que agencias de inteligencia del Reino Unido utilizan este modelo a través del AI Security Institute británico.
Anthropic, el Pentágono y la propia NSA no han emitido declaraciones oficiales sobre la información publicada, lo que mantiene la incertidumbre sobre el alcance real del uso de Mythos Preview en la inteligencia estadounidense.
Disputa entre Anthropic y el Departamento de Defensa: contexto y repercusiones
La revelación del acceso de la NSA a Mythos Preview llega en medio de una disputa legal y política entre Anthropic y el Departamento de Defensa. El conflicto comenzó cuando la empresa se negó a flexibilizar las restricciones sobre el uso de sus modelos de IA, lo que llevó a Defensa a considerar a Anthropic un riesgo para la cadena de suministro nacional y a presionar para eliminar esos límites.
Tras la negativa de Anthropic, el caso llegó a los tribunales, donde el Pentágono sostuvo que las “líneas rojas” impuestas por la compañía representaban una amenaza inaceptable para la seguridad nacional.
El enfrentamiento ha tensado la relación entre la empresa y las autoridades militares, en el marco de un debate más amplio sobre el control, la ética y el alcance de las aplicaciones avanzadas de IA en áreas sensibles.
En este contexto de litigio, el aparente uso de Mythos Preview por parte de la NSA plantea una paradoja dentro del propio gobierno: mientras el Departamento de Defensa mantiene su disputa con Anthropic, otra agencia estratégica podría estar beneficiándose de la tecnología desarrollada por la misma compañía.
Reino Unido analiza riesgos de la IA Claude Mythos Preview
Los principales organismos financieros del Reino Unido, junto al Centro Nacional de Ciberseguridad y los grandes bancos, han iniciado conversaciones para evaluar los posibles riesgos que plantea Claude Mythos Preview, según el Financial Times.
Entre las autoridades implicadas se encuentran el Banco de Inglaterra y la Autoridad de Conducta Financiera (FCA), que buscan identificar vulnerabilidades que esta tecnología de IA podría introducir en infraestructuras digitales críticas.
El debate tiene relación con Project Glasswing, una iniciativa de Anthropic que permite a organizaciones seleccionadas implementar Mythos en tareas defensivas de ciberseguridad con el objetivo de detectar y mitigar amenazas en sectores clave.
Anthropic ha señalado que el modelo Mythos ya ha identificado miles de fallos en sistemas operativos, navegadores y programas de uso masivo.



