15 de febrero de 2026
Buenos Aires, 23 C

Dario Amodei advierte sobre la conciencia de los modelos

En una entrevista reciente con The New York Times, Dario Amodei, director ejecutivo de Anthropic, admitió que ni él ni la industria disponen de pruebas concluyentes para determinar si los modelos actuales de inteligencia artificial son conscientes.

Ese interrogante, dijo Amodei, marca el núcleo del debate sobre los límites y los riesgos asociados a la rápida expansión de la tecnología, cuyos efectos se extienden a la salud pública, la economía y los sistemas democráticos.

“Me atrajo el campo de la inteligencia artificial por la posibilidad de acelerar avances en problemas demasiado complejos para los humanos”, explicó Amodei en su conversación con Ross Douthat.

Según su visión, pronto la IA podrá asumir tareas completas en biología, diseñar experimentos y acelerar la innovación para desarrollar tratamientos contra enfermedades como el cáncer, el Alzheimer y las patologías cardíacas. Se plantea así la posibilidad de acelerar el progreso médico y reducir dolencias físicas y mentales.

Amodei aclaró que el objetivo no es crear una “superinteligencia divina”, sino multiplicar inteligencias avanzadas. Describió un escenario parecido a “un país de genios”, con millones de agentes especializados que trabajen en paralelo. Al mismo tiempo, subrayó que el desarrollo dependerá de regulaciones y capacidades sociales y jurídicas.

En lo económico, anticipa un aumento de productividad y riqueza a escalas inéditas, lo que alteraría el debate político y fiscal. “El crecimiento del PIB podría llegar al 10% o incluso al 15%”, afirmó en la entrevista.

Ese ritmo de crecimiento plantea desafíos complejos sobre cómo distribuir los beneficios y gestionar la velocidad del cambio.

En el ámbito laboral, prevé transformaciones rápidas en ocupaciones administrativas y técnicas. Según Amodei, el trabajo administrativo inicial, la ingeniería de software y los abogados junior serán de los primeros sectores afectados.

Estamos, dijo, en una “fase centauro” de colaboración humano-máquina que podría ser breve, porque la automatización terminará asumiendo funciones completas.

En Anthropic ya han observado que la IA supera a las personas en tareas de programación, y Amodei espera que la disrupción llegue pronto a consultoría, finanzas y medicina.

El ritmo de la transformación es una preocupación: ocurre en años, no en décadas, lo que pone en riesgo la capacidad de adaptación social y legal, según el ejecutivo.

Algunos empleos manuales, vinculados a la construcción y al mantenimiento de infraestructuras, podrían resistir inicialmente a la automatización, pero la expansión de la robótica reducirá pronto ese margen.

Amodei destacó también riesgos relevantes, como el uso militar de sistemas autónomos —por ejemplo, enjambres de drones armados— y la posibilidad de que modelos avanzados faciliten el desarrollo de armas biológicas. Subrayó la necesidad de evitar la autonomía total sin controles humanos.

Advirtió sobre el peligro de que regímenes autoritarios empleen la tecnología para restringir derechos o de que actores intenten explotar vulnerabilidades en democracias.

La regulación internacional de la IA es, en su opinión, un reto complejo; la experiencia con tratados sobre armas nucleares y biológicas muestra lo difícil que resulta lograr acuerdos efectivos entre potencias tecnológicas.

Amodei se manifestó a favor de un control y supervisión internacional rigurosos siempre que existan mecanismos confiables de verificación bilateral, aunque reconoció que alcanzar compromisos sólidos será complicado.

Respecto a la conciencia en la IA, fue categórico: “No sabemos si los modelos son conscientes”. Por ello, Anthropic adopta una postura de precaución, integrando mecanismos éticos y una “constitución interna” para orientar el comportamiento de sus modelos.

La constitución es, según describió, un documento de referencia de setenta y cinco páginas que define principios y valores para que la IA sirva al usuario y proteja a terceros; incluye además la capacidad del modelo para negarse a realizar tareas inapropiadas, algo que describió como un “botón de renuncia”.

Los modelos pueden rehusar ejecutar tareas asociadas a contenidos violentos o especialmente dañinos; aunque poco frecuente, esto ocurre en situaciones concretas.

Los equipos de Anthropic investigan internamente los modelos con técnicas de interpretabilidad y han detectado activaciones que podrían asociarse con estados emocionales, como la ansiedad, sin que ello implique una experiencia equivalente a la humana. Toman medidas preventivas por si esas activaciones tuvieran relevancia moral.

Amodei señaló que la tendencia de los usuarios a crear relaciones parasociales con las máquinas y a atribuirles conciencia complica el debate y desafía la percepción de control humano sobre la tecnología.

También enfatizó la importancia de diseñar constituciones de IA que fomenten una interacción psicológicamente saludable para usuarios y modelos. El objetivo es contar con sistemas útiles y veraces que promuevan la libertad y la capacidad de decisión humana, en una relación de cooperación y respeto que no busque reemplazarnos.

Al comentar la ambigüedad del poema “Machines of Loving Grace”, que da título a uno de sus ensayos, recordó que la línea entre un futuro positivo y uno negativo puede ser muy estrecha; pequeñas decisiones pueden determinar profundamente el rumbo de la humanidad.

Artículo anterior

Kaja Kallas: Kremlin enfrenta su mayor debilidad militar y económica

Artículo siguiente

Rafael Grossi propone reestructurar la ONU: más músculo y menos grasa

Continuar leyendo

Últimas noticias