15 de enero de 2026
Buenos Aires, 23 C

Auriculares que aíslan conversaciones con IA

En entornos concurridos donde las conversaciones, la música y el ruido de platos dificultan la comunicación, un equipo de la Universidad de Washington ha creado un prototipo de auriculares que, gracias a la inteligencia artificial, puede aislar automáticamente las voces de las personas que conversan con el usuario y reducir el ruido de fondo y otras conversaciones.

Este avance puede beneficiar a personas con dificultades auditivas y a cualquier usuario que necesite mayor claridad en lugares ruidosos, al ofrecer una solución automática y no invasiva que podría cambiar la experiencia auditiva cotidiana.

A diferencia de enfoques anteriores que requerían intervención manual o métodos invasivos, el prototipo opera de forma autónoma: detecta quién participa en la conversación y atenúa las voces que no coinciden con el patrón natural de turnos de palabra.

El sistema combina dos modelos de inteligencia artificial: uno identifica a los interlocutores a partir de los patrones temporales del diálogo y el otro filtra los sonidos no relacionados. En aproximadamente dos a cuatro segundos, los auriculares reconocen y aíslan las voces relevantes, eliminando la necesidad de que el usuario seleccione manualmente a quién escuchar o ajuste parámetros de distancia.

La técnica se basa en que, durante una conversación, las personas siguen un ritmo de turnos de palabra que puede predecirse y seguirse solo con el audio. El sistema se activa cuando el usuario empieza a hablar; entonces el primer modelo determina quién habló y cuándo, buscando una baja superposición entre los participantes.

Después, el segundo modelo limpia la señal y entrega en tiempo real el audio aislado al usuario. Esta aproximación difiere de métodos previos que exigían selección manual de interlocutores o el uso de electrodos implantados para rastrear la atención.

En las pruebas, el prototipo gestionó conversaciones entre el usuario y hasta cuatro personas adicionales sin retrasos perceptibles. Once participantes evaluaron la experiencia, valorando la claridad, la supresión de ruido y la comprensión con los filtros activados y desactivados.

Los resultados indicaron que la versión filtrada duplicó la puntuación frente a la experiencia sin filtros. Además, el diseño actual evita la necesidad de mirar a una persona concreta o de ajustar burbujas de audio por distancia, lo que simplifica su uso respecto a prototipos anteriores.

El sistema todavía presenta limitaciones en situaciones de habla desordenada, cuando varias personas interrumpen, hablan a la vez o se suman a la conversación en curso, lo que complica el seguimiento de los interlocutores. Los modelos se entrenaron en inglés, mandarín y japonés, por lo que su adaptación a otros idiomas puede requerir ajustes.

El prototipo emplea auriculares de diadema comerciales y circuitos básicos, aunque los investigadores prevén que la tecnología pueda miniaturizarse para integrarse en audífonos, auriculares intraurales o gafas inteligentes. En trabajos relacionados han mostrado que modelos similares ya pueden ejecutarse en chips del tamaño de los usados en audífonos.

El código subyacente es de código abierto, lo que facilita su desarrollo y adaptación futura. Esta tecnología anticipa automáticamente la intención del usuario de forma no invasiva y abre nuevas posibilidades para la accesibilidad y la interacción en entornos complejos.

Artículo anterior

Rivales de Rosario Central y Newell’s en la Copa Argentina 2026

Artículo siguiente

María Corina Machado reaparece en Oslo tras un año en la clandestinidad

Continuar leyendo

Últimas noticias