En el mes de marzo pasado, cuando empezaba a verse claro que el Covid19 se convertía en pandemia, el ministerio de defensa de Israel y la start-up Vocalis Health lanzaron una campaña pidiendo a los israelíes que donaran su voz.
Vocalis, que también tiene sede en Estados Unidos, ya había construido una aplicación capaz de detectar brotes de enfermedad pulmonar obstructiva crónica escuchando la respiración de la persona al hablar y querían hacer algo similar con el Covid19. Todo aquel que hubiera dado positivo en el test podía participar bajando una aplicación. Una vez al día debían hablar al teléfono, describir una imagen y contar desde 50 hasta 70.
Vocalis procesó las grabaciones obtenidas con su sistema de aprendizaje automático -junto con las voces de otra gente cuyo test dio negativo- con la intención de identificar una tipología relacionada con la enfermedad. Cuatro meses más tarde tenían 1.500 registros de voces y la versión piloto de una herramienta digital de detección de Covid19. Tal Wenderow, presidente de Vocalis, sostiene que la idea no es proveer un diagnóstico definitivo sino que sirva como ayuda para que los médicos puedan identificar casos de gente que debiera ser testeada o que necesite atención o aislamiento.
Pero Vocalis no es la única start-up trabajando en este tipo de proyectos. Hay varios grupos de investigación trabajando en proyectos similares en distintas partes del mundo. En la última década, los investigadores han usado la inteligencia artificial y el aprendizaje automático para identificar voces que remiten a una variedad de condiciones, desde la demencia y la depresión, hasta el autismo y enfermedades coronarias. Las tecnologías desarrolladas son capaces de detectar diferencias sutiles en la forma en que las personas con determinadas afecciones hablan y empresas de todo el mundo están comenzando a comercializarlas.
Por ahora la mayoría de los grupos de investigación van paso a paso diseñando herramientas para ser utilizadas por consultorios médicos o por investigadores científicos, pero ya sueñan con llevar esta tecnología a un campo más amplio incluyendo micrófonos en productos de consumo masivo para identificar enfermedades y trastornos. En un futuro cercano estos sistemas permitirían a los epidemiólogos usar smartphones para rastrear la propagación de enfermedades y convertirían los parlantes inteligentes en dispositivos médicos para el hogar.
“En el futuro tu robot, tu Siri o tu Alexa te dirá: oh, estás resfriado”, dice Bjorn Schuller, un especialista en reconocimiento de voz y emociones, que lidera uno de los grupos de investigación en el Imperial College London. “El análisis vocal automatizado es aún un campo nuevo y tiene un alto potencial de fallas, desde diagnósticos erróneos hasta la invasión de la privacidad en temas de salud. Estamos recién empezando” agrega Schuller.
Hablar requiere la coordinación de numerosas estructuras anatómicas y sistemas. Los pulmones envían aire a través de las cuerdas vocales, lo cual produce sonidos que son manejados por la lengua, los labios y las cavidades nasales. El cerebro, junto con otras partes del sistema nervioso, ayuda a regular todo el proceso y determina las palabras dichas. Una enfermedad que afecte a este sistema puede llevar al diagnóstico de qué puede estar pasando en el habla de una persona determinada.
El aprendizaje automatizado ha dado a los científicos una vía para detectar problemas rápido y a escala. Los investigadores pueden ahora alimentar cientos de miles de ejemplos de voces en una computadora y buscar características que distingan condiciones médicas en nuevos pacientes. Por ejemplo, se sabe que el parkinson provoca efectos en el habla. La pérdida de control en músculos que controlan el habla lleva a que los pacientes con parkinson hablen de manera débil y suave. Es algo que incluso lo nota el oído humano, pero teniendo 10.000 ejemplos archivados en una computadora, se podría tener un diagnóstico mucho más preciso.
Por ejemplo, en el caso del Alzheimer. Los pacientes de esta enfermedad tienden a usar palabras cortas, poco vocabulario y a usar pronombres para reemplazar nombres que se les olvidan. Un grupo de científicos canadienses afirma que la herramienta creada por ellos ya puede identificar el Alzheimer con un 82% de certeza.
Debido a que algunos cambios en el habla ocurren en los comienzos de las enfermedades neurogenerativas, los investigadores sostienen que estas herramientas de análisis de voz podrían ayudar a los médicos a diagnosticar tempranamente las enfermedades e intervenir antes de que se manifiesten otros síntomas. Otros sostienen que sólo el análisis de voz no sería suficiente para llegar a un diagnóstico. Isabel Trancoso, de la Universidad de Lisboa, sostiene que el análisis de voz será pronto tan común como el análisis de sangre.
Lo cierto es que algunas start-ups ya están proveyendo software a compañías farmacéuticas. Los desórdenes neurogenerativos es sólo un campo de acción. También se trabaja en el análisis de voz de niños, incluso de bebés, con el fin de diagnosticar el autismo. Algunos investigadores han encontrado que niños con déficit de atención hablan más alto y más rápido que el resto. Peak Profiling, una firma de Berlín, está desarrollando una herramienta para detectar este tipo de casos.
Pero otros médicos permanecen escépticos en cuanto a la verdadera utilidad de estas herramientas. Rhea Paul, especialista en desórdenes comunicacionales del Sacred Heart University, de Connecticut, sostiene que estas herramientas están sobrevaloradas y que un médico puede fácilmente llegar a este tipo de diagnósticos en una simple interrelación con el paciente. “El desarrollo es un camino sinuoso y no todos los niños que comienzan con el aspecto de tener autismo se convierten en adultos autistas”, sostiene Paul. “No debería etiquetarse tan fácilmente a un niño, especialmente en sus primeros años”.
Los investigadores científicos también se están centrando en enfermedades mentales. Se están desarrollando en varios países sistemas que permiten captar cuando una voz es lenta, tiene largas pausas, es desacostumbradamente monótona, signos que podrían llegar a diagnosticar depresión, psicosis, desorden bipolar y tendencias suicidas. “La voz es muy rica en cuanto a expresar emociones”, según Charles Marmar, siquiatra de la Universidad de Nueva York. “El ritmo, el volumen, el tono, te pueden indicar cuando el paciente está deprimido, ansioso, o si es un maníaco o una persona irritable”.
Una cosa es archivar y analizar patrones vocales, pero lo realmente complicado es entender qué significan y que pueden aportar desde el punto de vista clínico. ¿Se trata de características fundamentales de la enfermedad o solo muestran diferencias entre grupos humanos (edad, sexo, tamaño corporal, educación, cansancio, etc.). Muchas aplicaciones que están en desarrollo todavía tienen un largo camino por recorrer, pero el análisis de voz será sin dudas un factor de peso en el futuro de la ciencia médica.
Pero aunque se trata de una tecnología no invasiva, esto no significa que no tenga riesgos. Especialmente relacionados a la privacidad. Por ejemplo la posibilidad de que los individuos empiecen a ser identificados por sus muestras de voz y que esta información sea vendida o usada con fines perjudiciales para la persona. Empresas y compañías de seguros podrían obtener esta información y a partir de ahí discriminar a empleados o consumidores.
“Tenemos que tener en cuenta que mucho de lo que se está haciendo todavía está en proceso de investigación y empezar a pensar en qué va a pasar cuando todo esto se ponga en práctica”, dice Frank Rudzicz, fundador de las start-ups Winterlight Labs y Aural Analytics, proveedores de software para laboratorios de Estados Unidos y Canadá.