Anthropic se negó a relajar las restricciones que impiden el uso de su inteligencia artificial para dirigir armas autónomas o realizar vigilancia masiva dentro de Estados Unidos, según fuentes citadas por Reuters. La empresa mantiene sus salvaguardas pese a la presión del Pentágono para permitir usos militares más amplios.
El desencuentro pone de relieve las tensiones éticas y legales entre compañías tecnológicas y el gobierno de Estados Unidos en torno al desarrollo de IA aplicada a fines militares.
Anthropic mantiene restricciones éticas frente a presiones del Pentágono
Según el mismo medio, el director ejecutivo de Anthropic, Dario Amodei, se reunió con el secretario de Defensa, Pete Hegseth, para tratar la disputa que persiste desde hace meses entre la startup y el Pentágono.
Anthropic afirma que no retirará las limitaciones que impiden que su tecnología se use en armamento autónomo o vigilancia doméstica. Aunque funcionarios militares sostienen que el gobierno debería regirse solo por las leyes nacionales, la compañía considera ese marco insuficiente para justificar la eliminación de sus propias salvaguardas.
Durante la reunión, el Pentágono habría planteado un ultimátum: si Anthropic no aceptaba las condiciones demandadas, podría ser catalogada como un riesgo para la cadena de suministro, una designación que normalmente se reserva a empresas vinculadas a países adversarios.
Dicha etiqueta podría perjudicar la reputación de Anthropic y complicar futuras colaboraciones con el gobierno estadounidense.
Acuerdo del Pentágono con Elon Musk y la integración de Grok en sistemas secretos
Mientras Anthropic se mantiene firme, el Pentágono avanzó con acuerdos alternativos. Axios reportó que se llegó a un convenio con la firma de Elon Musk para integrar el modelo Grok en redes militares clasificadas.
Con esta decisión, las fuerzas armadas sustituyen el sistema Claude, desarrollado por Anthropic, por una herramienta que opera sin las restricciones impuestas por la compañía y que cumple los requisitos del Departamento de Defensa.
La incorporación de Grok pone fin al uso exclusivo de Claude en el procesamiento de información confidencial, consecuencia de la negativa de Anthropic a flexibilizar las condiciones de uso de su tecnología.
El Pentágono buscaba una solución que pudiera emplearse en cualquier contexto legal, sin limitaciones específicas para tareas controvertidas como vigilancia o control de armamento autónomo.
El Pentágono busca diversificar proveedores de IA militar
La disputa con Anthropic y la adopción de Grok forman parte de una estrategia mayor: fuentes internas indican que continúan las negociaciones con empresas como Google y OpenAI para ampliar la base de proveedores de inteligencia artificial en proyectos clasificados.
El objetivo es reducir la dependencia de un único sistema y mitigar los riesgos de concentrar capacidades críticas en una sola plataforma.
Qué es Anthropic y para qué sirve
Anthropic es una empresa de inteligencia artificial fundada en 2021 por exempleados de OpenAI. Se centra en desarrollar sistemas de IA seguros y alineados con intereses humanos. Su modelo más conocido, Claude, es un asistente conversacional capaz de responder preguntas, generar texto, analizar documentos y ofrecer soporte en tareas profesionales.
Para los usuarios, Anthropic ofrece herramientas que facilitan labores cotidianas y profesionales, aceleran la búsqueda de información, optimizan la redacción y apoyan la toma de decisiones. La compañía destaca la transparencia y la ética en el desarrollo de sus productos, con el propósito de que la IA sea beneficiosa y segura para las personas.

