Es una experiencia que todos hemos tenido: ya sea reuniéndonos con un amigo durante una cena en un restaurante, conociendo a una persona interesante en un cóctel o llevando a cabo una reunión en medio de la conmoción de la oficina, nos vemos obligados a gritar en medio de la charla de fondo y el ruido common. . El oído y el cerebro humanos no son especialmente buenos para identificar fuentes de sonido separadas en un ambiente ruidoso para concentrarse en una conversación en specific. Esta capacidad se deteriora aún más con la pérdida auditiva common, que se vuelve más frecuente a medida que las personas viven más años y puede conducir al aislamiento social.
Sin embargo, un equipo de investigadores de la Universidad de Washington, microsofty Asamblea AI tener recién mostrado que la IA puede superar a los humanos en el aislamiento de fuentes de sonido para crear una zona de silencio. Esta burbuja sonora permite a las personas en un radio de hasta 2 metros conversar con una interferencia enormemente reducida de otros hablantes o ruido fuera de la zona.
El grupo, dirigido por el profesor de la Universidad de Washington Shyam Gollakotatiene como objetivo combinar IA con {hardware} para aumentar las capacidades humanas. Esto es diferente, cube Gollakota, a trabajar con enormes recursos computacionales como los ChatGPT emplea; más bien, el desafío es crear aplicaciones de IA útiles dentro de los límites de las limitaciones del {hardware}, particularmente para uso móvil o portátil. Gollakota ha pensado durante mucho tiempo que lo que se ha llamado el “problema del cóctel” es un problema generalizado en el que este enfoque podría ser factible y beneficioso.
Actualmente disponible comercialmente cancelación de ruido Los auriculares suprimen el ruido de fondo pero no compensan las distancias a las fuentes de sonido u otros problemas como las reverberaciones en espacios cerrados. Sin embargo, estudios anteriores han demostrado que redes neuronales logra una mejor separación de las fuentes de sonido que el procesamiento de señales convencional. Sobre la base de este hallazgo, el grupo de Gollakota diseñó un sistema integrado de hardware-IA “oíble” que analiza datos de audio para identificar claramente fuentes de sonido dentro y sin un tamaño de burbuja designado. Luego, el sistema suprime los sonidos extraños en tiempo actual para que no haya un retraso perceptible entre lo que los usuarios escuchan y lo que ven mientras observan a la persona que habla.
La parte de audio del sistema son unos auriculares comerciales con cancelación de ruido con hasta seis micrófonos que detectan sonidos cercanos y más distantes, proporcionando datos para el análisis de redes neuronales. Las redes personalizadas encuentran las distancias a las fuentes de sonido y determinan cuáles de ellas se encuentran dentro de un radio de burbuja programable de 1 metro, 1,5 metros o 2 metros. Estas redes se entrenaron con datos tanto simulados como del mundo actual, tomados en 22 salas de distintos tamaños y cualidades de absorción de sonido.con diferentes combinaciones de sujetos humanos.El algoritmo se ejecuta en una pequeña CPU integrada, ya sea Orange Pi o Frambuesa Piy envía los datos procesados a los auriculares en milisegundos, lo suficientemente rápido como para mantener sincronizadas la audición y la visión.
Escuche la diferencia entre una conversación con los auriculares con cancelación de ruido activados y desactivados. Malek Itani y Tuochao Chen/Escuela Paul G. Allen/Universidad de Washington
El algoritmo de este prototipo redujo el volumen del sonido fuera de la burbuja vacía en 49 decibelios, a aproximadamente el 0,001 por ciento delintensidad registrada dentro de la burbuja. Incluso en entornos acústicos nuevos y con diferentes usuarios, el sistema funcionó bien para hasta dos parlantes en la burbuja y uno o dos parlantes externos que interferían, incluso si eran más ruidosos. También dio cabida a la llegada de un nuevo orador al inside de la burbuja.
Es fácil imaginar aplicaciones del sistema en dispositivos de cancelación de ruido personalizables, especialmente cuando se necesita una comunicación verbal clara y sin esfuerzo en un entorno ruidoso. Los peligros del aislamiento social son bien conocidos y una tecnología diseñada específicamente para mejorar la comunicación de persona a persona podría ayudar. Gollakota cree que es valioso simplemente ayudar a una persona a centrar su atención auditiva y espacial para la interacción private.
La tecnología de burbujas de sonido también podría integrarse en los audífonos. Ambos Google y fabricante suizo de audífonos Phonak han agregado elementos de inteligencia synthetic a sus auriculares y audífonos, respectivamente. Gollakota ahora está considerando cómo trasladar el enfoque de la burbuja sonora a un formato de audífono que se pueda llevar cómodamente. Para que eso suceda, el dispositivo tendría que encajar en auriculares o en una configuración detrás de cada oreja, comunicarse de forma inalámbrica entre las unidades izquierda y derecha y funcionar todo el día con baterías pequeñas.
Gollakota confía en que esto se puede hacer. “Estamos en un momento en el que el {hardware} y los algoritmos se están uniendo para respaldar el aumento de la IA”, afirma. “No se trata de que la IA reemplace puestos de trabajo, sino de tener un impacto positivo en las personas a través de una interfaz hombre-computadora”.
De los artículos de su sitio
Artículos relacionados en la Net