Esta segunda fase de la investigación ha contado con una muestra más amplia de pacientes, con un total de 1.500 frente a los 52 de la etapa inicial, con lo que se convierte en el "primer gran estudio" que explora la asociación entre el habla espontánea y el rendimiento cognitivo, ha informado el centro este martes en un comunicado.
En la primera fase consiguieron relacionar el lenguaje espontáneo con la acumulación de beta amiloide en el cerebro en personas afectadas por deterioro cognitivo leve, y los nuevos hallazgos demuestran que el análisis del habla espontánea mediante técnicas de IA también permite distinguir entre diferentes grados de deterioro.
El estudio se enmarca en el proyecto 'Tartaglia', que tiene como objetivo aplicar la IA en el Sistema Nacional de Salud, y se ha llevado a cabo a través de la plataforma digital AcceXible. Sobre los audios generados a partir de esta prueba de lenguaje espontáneo se han aplicado técnicas de IA para analizar factores paralingüísticos relacionados con el habla.
Estos parámetros paralingüísticos son elementos del habla que afectan a cómo se produce el lenguaje, incluyendo aspectos relacionados con la prosodia o la entonación, y para ello han grabado la voz de cada paciente generando computacionalmente diferentes parámetros de sonido del habla que han permitido detectar diferencias según la fase de evolución en la que se encuentra la enfermedad.
El investigador del proyecto en Ace Alzheimer Center, Sergi Valero, ha afirmado que la herramienta es "un paso adelante en esta dirección de ofrecer una alternativa más accesible, fácil de obtener y menos invasiva que los métodos tradicionales".