Sei sulla pagina 1di 4

Clasificación de Grabaciones Normales o

Anormales del Corazón


Juan Peralta Carola Carrión Juan B. Tenesaca
Escuela de Electronica Y Escuela de Electronica Y Escuela de Electronica Y
Telecomunicaciones Telecomunicaciones Telecomunicaciones
Universidad de Cuenca Universidad de Cuenca Universidad de Cuenca
Email: juan.peralta@ucuenca.ec Email: carola.carrion@ucuenca.ec Email: bernardo.tenesacaq@ucuenca.ec

Resumen—The phonocardiogram (PCG) is the graphic re-


presentation of a heart sound recording and is intended to
classify the recordings of the heart in normal or abnormal.
The following document proposes some algorithms to classify
the cardiac recordings to later compare the obtained results.

I. I NTRODUCCI ÓN
El proyecto ”The PhysioNet/Computing in Cardiology Cha-
llenge 2016”tiene como objetivo fomentar el desarrollo de
algoritmos para clasificar las grabaciones de sonido del co-
razón recogidos de una variedad de entornos clı́nicos o no
clı́nicos (tales como las visitas a domicilio). El objetivo es Figura 1: PCG y ECG Realizadas en simultaneo
identificar, a partir de una sola grabación corta (10-60s) desde
una única ubicación precordial, si el sujeto de la grabación
debe ser referido por un diagnóstico experto centrándose sólo es un requisito previo para la identificación de las regiones
en la clasificación precisa de los sonidos cardı́acos normales sistólica o diastólica, lo que permite la posterior clasificación
y anormales, especialmente cuando algunos sonidos cardı́acos de situaciones patológicas en estas regiones.
muestran una calidad de señal muy baja[3].
El objetivo de este proyecto es el analizar los algoritmos III. M ETODOLOG ÍA
planteados por algunos de los participantes de este proyecto ,
comparar los resultados ante un grupo de audios precordiales Dentro de los diversos sistemas de automatización para la
de prueba y tratar mejorar estos algoritmos[4]. detección de sonidos precordiales se selecciono 3 algoritmos
los cuales presentaban respuestas al problema que resultan
II. M ARCO T E ÓRICO interesantes para su comparación , cada uno de ellos presentan
Durante el ciclo cardı́aco, el corazón genera en primer lugar, metodologı́as distintas la solución del problema por lo que se
la actividad eléctrica y luego la actividad eléctrica provoca presenta una breve descripción de cada sistema.
contracciones auriculares y ventriculares. Esto a su vez las
fuerzas de sangre entre las cámaras del corazón y de todo III-A. Sonidos cardı́acos anormales detectados a partir de
el cuerpo. La apertura y cierre de las válvulas del corazón fonocardiogramas de corta duración por entropı́a Wavelet
se asocia con aceleraciones y des-aceleraciones de la sangre,
dando lugar a vibraciones de toda la estructura cardı́aca Estas La implementación se basa en el uso de la transformada
vibraciones son audibles en la pared del pecho, y la escucha de wavelet como medio de separación de tipos de capturas de
sonidos cardı́acos especı́ficos pueden dar una indicación de la audio precordiales de los diferentes pacientes[1].
salud del corazón. La representación gráfica de estos sonidos Una Wavelet es una ”pequeña onda”de duración limitada, es
se denomina fonocardiograma (PCG). decir, su energı́a está concentrada en el tiempo alrededor de un
La segmentación del FHSS (ruidos cardı́acos fundamenta- punto, lo que proporciona una adecuada herramienta para el
les) incluyen generalmente S1 y S2 del corazón, S1 se produce análisis de fenómenos transitorios, no estacionarios, variables
al comienzo de la contracción ventricular isovolumétrica, en el tiempo y aquellos que presenten discontinuidades. Este
cuando las válvulas mitral y tricúspide se cierran debido algoritmo calcula la entropı́a del audio empleado y separa el
al rápido aumento de la presión dentro de los ventrı́culos. tipo de señal por medio de un limite establecido , tal como se
S2 se produce al comienzo de la diástole con el cierre muestra en la Figura 2.
de las válvulas aórtica y pulmonar, esto se puede apreciar Una muestra del procesamiento de la señal de audio con
claramente en la Figura 1. La localización exacta de la FHSS este algoritmo de puede apreciar en la Figura ??.
Figura 2: Diagrama de flujo del algoritmo usando la transfor-
mada Wavelet

Figura 4: Arquitectura CNN

Cuatro series de tiempo, una por cada banda de frecuencia,


son las entradas a la red. Cada una de las CNN consta de tres
capas: la capa de entrada seguida de 2 capas de convolución.
La salida de los 4-CNNs son aplanados y pasan a una red de
perceptrón multicapa (MLP). , La capa de salida calcula la
puntuación de clase (es decir, el valor de probabilidad, CNN
y ABN) del sonido anormal del corazón.
Finalmente en la salida de los dos clasificadores tanto de
Figura 3: Ejemplo del procesamiento de la señal con la ABN y CNN se combinan usando una regla de desición para
transformada Wavelet producir el resultado de clasificación final: normal o anormal
de acuerdo a un umbral de desición.
III-B. Desarrollo de algoritmos para clasificar registros nor-
males o anormales de sonidos del corazón
Cada PCG comprende más de un ciclo cardı́aco (latido), y
cada latido consta de cuatro estados de sonido del corazón ( III-C. Clasificación de los sonidos cardiacos basados en
S1, sı́stole, S2 y diástole). técnicas de alineamiento temporales.
El objetivo es desarrollar algoritmos para clasificar los
registros de sonido en dos grupos: normales y anormales.
Para ello se usa un conjunto de clasificadores: AdaBoost y La base de este proyecto esta en distinguir el comporta-
Convolutional Neural Network [5]. miento normal o anormal del corazón a partir de la toma de
datos mediante un fonocardiograma(PCG). El siguiente paso
• ADA BOOST es superar el objetivo para que un modelo creado por un grupo
especifico de pacientes, pueda ser utilizado para un nuevo
El clasificador Ada Boost para clasificar PCGs en normales sujeto de pruebas y comprobar la veracidad de este modelo
o anormales usa las caracterı́sticas del dominio del tiempo y [2].
frecuencia. En el dominio temporal uso intervalos y amplitudes Como primer paso, se segmenta la grabación de PCG en
PCGs. En el dominio de la frecuencia usa el espectro de los sonidos cardı́acos fundamentales: S1 y S2 además de
potencia de cada estado del sonido del corazón utilizando una los intervalos sistólico y diastólico. Estos cuatro intervalos
ventana de Hamming y la transformada de Fourier de tiempo forman los estados del ciclo cardı́aco. La segmentación es un
discreto. paso esencial en el análisis automático de PCGs, permitiendo
• Convolutional Neural Network separar de mejor manera las caracterı́sticas de las pulsaciones.
Es necesario este paso dado que al momento de obtener los
El ciclo cardı́aco descompuesto con S1, sı́stole, S2 y diástole coeficientes MFCC de cada sector, se puede caracterizar de
es la entrada a la red CNN mostrada en la siguiente figura: mejor forma las propiedad del audio.
generados también se obtuvo datos nulos en el cálculo de la
entropı́a, con esto se genero un archivo .arff para su utilización
en el programa weka, con el cual se realizaron pruebas con
diferentes configuraciones de perceptron multicapa que se
muestra en la figura 6.

Figura 6: Red Neuronal Implementada


Figura 5: Muestra de un fonocardiograma sectorizado.

Los resultados obtenidos fueron los siguientes:


En la Figura 5 se puede observar cada uno de los sectores
sobre la muestra de un paciente. Después de que se han
obtenido los coeficientes MFCC de cada sector, estos servirán Sensibilidad: 0.5510
como entradas para el entrenamiento de SVM, el cual ayuda Specificidad: 0.71428
a clasificar si el comportamiento es normal o anormal. Este Precisión final modificada (MAcc): 0.6327
estudio obtuvo un 82.4 % de éxito al momento de realizar la
clasificación para un nuevo tipo de entradas que provienen de Los mejores resultados se obtuvieron con el modelo de
diferentes pacientes. validación cruzada, se dividieron los registros en 10 muestras
en donde las 9 se usaron como datos de entrenamiento del
IV. AVANCE DEL P ROYECTO proceso y la restante como datos de validación de las pruebas.
Una ves analizados los métodos y algoritmos usados en El modelo de perceptron multicapa se puede observar en la
las propuestas de solución problema expuestas anteriormente siguiente figura:
se planteo realizar una solución basada en la energı́a de la
transformda wavelet del clip de sonido y una red neuronal de V. C ONCLUSIONES
perceptron multicapa. El primer método analizado es interesante en el sentido
de encontrar una relación en el sonido por medio de una
Tomando como punto de partida el algoritmo planteado por transformada con base diferente a una onda senoidal ,
Philip Langley donde detecta sonidos cardı́acos anormales se espera que las diferencias con respecto a los otros
a partir de fonocardiogramas de corta duración por entropı́a métodos elegidos contrasten una correcta división del
Wavelet, en la figura 3 se pudo observar el procesamiento tipo de sonido
con la señal, en donde se evidencia tres etapas: la señal, los El enfoque para el segundo método analizado se basa
coeficientes wabelet y la energı́a a partir de la cual se calcula en la combinación de dos tipos de clasificadores el
la entropı́a. Cuyos resultados son los siguientes: primero (ABN) entrenado con caracterı́sticas de tiempo
y frecuencia y otro con aprendizaje CNN, siendo un
Sensibilidad: 0.9338 enfoque novedoso y con resultados relativamente buenos
Specificidad: 0.2800 para distinguir los sonidos cardı́acos.
Precisión final modificada (MAcc): 0.6069 Para el tercer método decimos que es importante tratar a
las señales por su comportamiento y consecuentemen-
Como variables de ingreso para la red neuronal se eligió la te dividirla para un mejor análisis, de esta forma los
entropı́a calculada de la energı́a de la transformada wavelet , coeficientes que representaran a cada sector serán mas
dado que en algunos casos la entropı́a calculada de toda la precisos que los coeficientes que represaran a la muestra
señal era igual a un valor no existente debido a la división tratándola como un todo.
por cero, se opto por dividir el audio en 5 y realizar el cálculo
de la entropı́a de cada división. R EFERENCIAS

Se obtuvo un conjunto de datos con 301 registros [1] Philip Langley and Alan Murray. Abnormal heart sounds detected from
short duration unsegmented phonocardiograms by wavelet entropy. In
correspondiente a cada audio, cada registro abarca 5 entropı́as Computing in Cardiology Conference (CinC), 2016, pages 545–548.
debido a las divisiones hechas. En el conjunto de datos IEEE, 2016.
[2] José Javier González Ortiz, Cheng Perng Phoo, and Jenna Wiens. Heart
sound classification based on temporal alignment techniques. In Com-
puting in Cardiology Conference (CinC), 2016, pages 589–592. IEEE,
2016.
[3] Cristhian Potes, Saman Parvaneh, Asif Rahman, and Bryan Conroy. En-
semble of feature-based and deep learning-based classifiers for detection
of abnormal heart sounds, 2016.
[4] Michael Tschannen, Thomas Kramer, Gian Marti, Matthias Heinzmann,
and Thomas Wiatowski. Heart sound classification using deep structured
features. In Computing in Cardiology Conference (CinC), 2016, pages
565–568. IEEE, 2016.
[5] Sachin Vernekar, Saurabh Nair, Deepu Vijaysenan, and Rohit Ranjan. A
novel approach for classification of normal/abnormal phonocardiogram
recordings using temporal signal analysis and machine learning. In
Computing in Cardiology Conference (CinC), 2016, pages 1141–1144.
IEEE, 2016.