8 de mayo de 2026
Buenos Aires, 9 C

Nueva vulnerabilidad de IA amenaza a las empresas

En agosto de 1949, en Mann Gulch, Montana, quince bomberos paracaidistas se sumaron a un guarda forestal para combatir un incendio que parecía rutinario. Eran dieciséis hombres sin historia compartida ni reglas comunes, reunidos solo para esa misión.

Cuando el fuego cambió de dirección y el viento se volvió impredecible, el líder Wag Dodge tomó una decisión inesperada: encendió un fuego de frente y ordenó a los demás acostarse en la zona ya quemada. La técnica, luego llamada “fuego de escape”, no era conocida ni estaba formalizada. Solo Dodge sobrevivió; otros dos escaparon por casualidad y trece murieron.

Décadas después, el teórico organizacional Karl Weick analizó el suceso y concluyó que el problema no fue la técnica ni la información disponible, sino la falta de sentido compartido: el equipo no pudo reinterpretar la situación a tiempo.

Weick denomina sensemaking a la capacidad de construir significado en entornos nuevos e inciertos. Según él, las organizaciones no suelen fallar por carecer de datos, sino por no poder redefinir lo que está ocurriendo cuando las referencias habituales dejan de servir.

Cuando el sentido colapsa, no basta con más información: hacen falta liderazgo, criterio y disposición para abandonar supuestos previos. Muchas fallas sistémicas tienen así un origen humano: se producen por diseño, cultura o por cómo se procesa lo inesperado.

Un ejemplo reciente ilustra esto en el ámbito digital. El 28 de febrero, la startup CodeWall empleó un agente autónomo de IA para explorar la infraestructura de McKinsey. En aproximadamente dos horas y con un coste bajo, el agente obtuvo acceso de lectura y escritura a la base de datos productiva de Lilli, la plataforma interna de IA de la consultora.

Además de millones de mensajes y cientos de miles de archivos, el agente accedió a las instrucciones que gobiernan cómo razona el sistema: noventa y cinco directrices internas distribuidas en doce modelos, que podían reescribirse sin generar despliegues, registros ni alertas.

McKinsey parcheó la vulnerabilidad rápidamente y afirmó que no se filtraron datos de clientes. Pero atribuir el incidente a una falla aislada sería perder de vista un problema estructural: refleja cómo se están diseñando hoy muchos sistemas empresariales de IA.

Durante años la protección se centró en datos y documentos, pero el verdadero valor se desplaza hacia la lógica que decide las respuestas de la IA. Si esa lógica convive dentro del mismo perímetro que los datos, una única falla no solo expone información, sino que puede cambiar cómo el sistema interpreta todo lo que procesa.

El problema no es solo técnico ni es culpa del operario que ejecuta mal una tarea; también es responsabilidad de quienes asumen marcos de riesgo obsoletos o creen que ciertos escenarios son improbables sin verificarlos.

Es una versión digital de Mann Gulch: equipos fragmentados toman decisiones sobre arquitecturas que evolucionan más rápido que la experiencia disponible. El antiguo enfoque de seguridad —datos, perímetro y accesos— se diseñó para un mundo donde la lógica del sistema no se podía editar. Ese mundo ya no existe.

La pregunta práctica para los líderes es qué hacer. No se trata únicamente de pedir más expertos en ciberseguridad, sino de responder tres preguntas de gobernanza: ¿dónde reside la lógica de mis sistemas de IA y quién puede modificarla? ¿Qué ocurre si esa lógica cambia sin detectarlo? ¿Cuándo revisó por última vez el directorio esa situación? Si no hay respuestas claras, el perímetro es insuficiente.

Además, la velocidad ha cambiado la economía del riesgo: un agente autónomo puede intentar miles de combinaciones sin fatiga, lo que hace operativa una asimetría que antes era teórica.

Por eso la prioridad debe ser diseñar sistemas con gobernanza desde el inicio. La lógica que interpreta los datos debe considerarse un activo crítico: separada, auditada y monitorizada con el mismo rigor que la información sensible.

Los directorios ya empiezan a recibir preguntas sobre gobernanza de IA que antes no llegaban. Lo que hasta hace poco se discutía como un asunto técnico se convierte rápidamente en un criterio para evaluar socios, proveedores y clientes, independientemente de la existencia de marcos regulatorios locales.

La verdadera pregunta no es si estos sistemas fallarán —eso es probable— sino si seremos capaces de detectar esas fallas a tiempo. Cuando lo que se altera no son los datos sino el sentido, el riesgo deja de ser puramente técnico y se vuelve, como en Mann Gulch, profundamente humano.

Artículo anterior

Comité Europeo de las Regiones: comunidades locales clave en la reconstrucción de Ucrania

Artículo siguiente

Avance de la causa contra la falsa médica de Chaco y posible cambio de carátula

Continuar leyendo

Últimas noticias

Menos colectivos en AMBA