15 de enero de 2026
Buenos Aires, 23 C

Computación analógica reduce mil veces el consumo energético de la IA

El rápido desarrollo de la inteligencia artificial (IA) ha incrementado notablemente su capacidad, pero también su demanda energética. Según estimaciones, una consulta de máxima longitud en ChatGPT podría consumir aproximadamente el doble de energía que un hogar promedio de Estados Unidos en un minuto.

Si se multiplica ese consumo por miles de millones de consultas diarias y se añade el gasto del entrenamiento intensivo de los modelos, el impacto energético es significativo. Por ello, los investigadores buscan alternativas que hagan la IA más sostenible y reduzcan su huella de carbono.

Un estudio reciente liderado por Tianyi Chen, profesor asociado en Cornell Tech, junto a colaboradores de IBM y el Rensselaer Polytechnic Institute, investiga una solución: la computación analógica en memoria (AIMC). Esta tecnología utiliza chips analógicos que almacenan y procesan datos en el mismo lugar, evitando las continuas transferencias entre memoria y procesador típicas de las arquitecturas digitales.

Chen explicó que esto aprovecha fenómenos físicos para realizar cálculos casi instantáneamente sin mover los datos, lo que podría reducir el consumo energético hasta en miles de veces y hacer más sostenible la próxima generación de IA.

Computación analógica en memoria: una alternativa prometedora

La computación analógica en memoria ofrece una vía para reducir drásticamente el gasto energético de la IA, permitiendo que chips analógicos ejecuten modelos con un consumo muy inferior una vez que estos han sido entrenados.

Sin embargo, el entrenamiento planteó una limitación importante: el hardware analógico no es perfecto. Los pulsos eléctricos que actualizan los parámetros pueden ser irregulares o verse afectados por ruido, lo que produce gradientes inexactos y dificulta el aprendizaje.

Para abordar este problema, el equipo de Chen desarrolló una versión analógica del algoritmo de retropropagación, bautizada como “Residual Learning”. Esta variante corrige de manera sistemática las imperfecciones del hardware y mantiene el proceso de entrenamiento en la dirección correcta.

Residual Learning incorpora una capa adicional que supervisa y ajusta las imperfecciones en tiempo real, de modo que los modelos pueden entrenarse con una precisión comparable a la de los sistemas digitales pero con un consumo energético sensiblemente menor.

Chen afirmó que el método compensa dinámicamente los errores inherentes al hardware, permitiendo entrenar con precisión similar al hardware digital a una fracción del costo energético.

El equipo presentó esta innovación en una ponencia oral en la conferencia NeurIPS 2025. El enfoque no solo corrige fallos típicos del hardware analógico, sino que también plantea un marco sistemático para asegurar la estabilidad y la imparcialidad durante el entrenamiento.

Hacia una inteligencia artificial más eficiente

El avance podría transformar cómo se desarrollan y despliegan modelos de IA, posibilitando el entrenamiento y ajuste de modelos a gran escala con mucho menos consumo y menor coste.

Esto abriría la puerta a aplicaciones ahora difíciles de implementar por razones energéticas, como dispositivos médicos portátiles, tecnología vestible, sensores industriales y robots autónomos, y favorecería el diseño de nuevas arquitecturas de modelos optimizadas para hardware analógico.

Como próximos pasos, el equipo planea adaptar la metodología a modelos de código abierto y explorar colaboraciones con la industria para escalar la tecnología. Chen concluyó que esta línea de trabajo podría permitir construir modelos de IA considerablemente más eficientes desde el punto de vista energético y generar un cambio real en su desarrollo y uso.

Artículo anterior

Tarta de limón con merengue perfecto: receta de Gladys Olazar

Artículo siguiente

Mejoras integrales en la Ruta Provincial 4

Continuar leyendo

Últimas noticias