Mostrar el registro sencillo del ítem

dc.contributor.advisorDestéfanis, Eduardo
dc.creatorGarcía, Mario Alejandro
dc.date.accessioned2022-02-15T14:03:06Z
dc.date.available2022-02-15T14:03:06Z
dc.date.issued2021-12-03
dc.identifier.urihttp://hdl.handle.net/20.500.12272/5956
dc.description.abstractEl análisis audioperceptivo es una parte principal de la rutina de evaluación clínica de pacientes con trastornos de la voz para medir y registrar la calidad vocal. Esta valoración repercute en la detección y tratamiento de enfermedades vocales. GRBAS es una escala de valoración de cinco dimensiones usualmente utilizada en este proceso, donde la dimensión “G” representa el grado general de disfonía. En este trabajo se desarrolla un modelo de aprendizaje profundo para calcular el grado general de disfonía en escala GRBAS con el propósito de contribuir a la comprensión y mejora de este tipo de modelos en el ámbito de la calidad vocal. La arquitectura de la red neuronal se definió a partir de dos versiones de un modelo llamado modelo inicial, creado en base a modelos más pequeños. Estos modelos neuronales pequeños, diseñados a partir del conocimiento del dominio del problema, se enfocan en resolver la representación frecuencial del audio, la extracción de características y la clasificación. Una de las versiones recibe el audio sin procesar como entrada y la otra recibe el cepstrograma. Los modelos fueron entrenados y evaluados con los datos de una base de datos pública que contiene audios y valoraciones en escala GRBAS, a los que se añadieron valoraciones de calidad vocal realizadas por un evaluador local. Las métricas utilizadas para evaluar los modelos de clasificación son la exactitud y el error absoluto medio. Debido a que las valoraciones audioperceptivas tienen un alto grado de variación entre distintos evaluadores médicos y también entre distintas valoraciones del mismo evaluador médico, se plantea que el rendimiento de los modelos automáticos se debe evaluar en relación al índice de concordancia medio interevaluador e intraevaluador de la base de datos. En base a los resultados obtenidos, por un lado se concluye que la versión del modelo que recibe el cepstrograma como entrada es capaz de predecir el grado general de disfonía, para los datos utilizados, con una exactitud cercana a la de un evaluador humano. Por otro lado, se concluye que una red neuronal profunda diseñada para reconocer patrones de perturbación de amplitud, perturbación de frecuencia y ruido, obtiene información útil para la predicción del grado general de disfonía, que para el diseño utilizado (donde la extracción de características está basada en el cepstrum) no es posible utilizar el audio sin procesar como entrada y que el modelo presentado es un buen punto de partida para futuros desarrollos de clasificadores de la calidad vocal aplicables en la práctica clínica.es_ES
dc.formatpdfes_ES
dc.language.isospaes_ES
dc.publisherUniversidad Tecnológica nacional. Facultad Regional Córdobaes_ES
dc.rightsopenAccesses_ES
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.rights.uriAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.subjectInteligencia artificiales_ES
dc.subjectAprendizaje automáticoes_ES
dc.subjectAprendizaje profundoes_ES
dc.subjectRedes neuronaleses_ES
dc.subjectCalidad vocales_ES
dc.subjectDisfoníaes_ES
dc.titleClasificación automática del grado general de disfoníaes_ES
dc.typeinfo:eu-repo/semantics/doctoralThesises_ES
dc.rights.holderGarcía, Mario Alejandroes_ES
dc.description.affiliationFil: García, Mario Alejandro. Universidad Tecnológica Nacional. Facultad Regional Córdoba, Departamento de Ingeniería en Sistemas de Información; Argentina.es_ES
dc.type.versionacceptedVersiones_ES
dc.rights.useNo Comercial. Sólo de Uso Académico.es_ES


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

openAccess
Excepto si se señala otra cosa, la licencia del ítem se describe como openAccess