Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features

Autores
Gaona, Álvaro Joaquín; Arini, Pedro David
Año de publicación
2020
Idioma
inglés
Tipo de recurso
artículo
Estado
versión publicada
Descripción
In this work, a novel stack of well-known technologies is presented to determine an automatic method to segment the heart sounds in a phonocardiogram (PCG). We will show a deep recurrent neural network (DRNN) capable of segmenting a PCG into their main components and a very specific way of extracting instantaneous frequencythat will play an important role in the training and testing of the proposed model. More specifically, it involves an Long Short-Term Memory (LSTM) neural network accompaniedby the Fourier Synchrosqueezed Transform (FSST) used to extract instantaneous time-frequency features from a PCG. The present approach was tested on heart sound signalslonger than 5 seconds and shorter than 35 seconds from freely-available databases. This approach proved that, with a relatively small architecture, a small set of data and theright features, this method achieved an almost state-of-the-artperformance, showing an average sensitivity of 89.5%, anaverage positive predictive value of 89.3% and an averageaccuracy of 91.3%.
En este trabajo se presenta un conjunto de técnicas bien conocidas definiendo un método automático para determinar los sonidos fundamentales en un fonocardiograma (PCG). Mostraremos una red neuronal recurrente capaz de segmentar un fonocardiograma en sus principales componentes, y una forma muy específica de extraer frecuencias instantáneas que jugarán un importante rol en el entrenamiento y validación del modelo propuesto. Más específicamente, el método propuesto involucra una red neuronal Long Short-Term Memory (LSTM) acompañada de la Transformada Sincronizada de Fourier (FSST) usada para extraer atributos en tiempo-frecuencia en un PCG. El presente enfoque fue evaluado con señales de fonocardiogramas mayores a 5 segundos y menores a 35 segundos de duración extraídos de bases de datos públicas. Se demostró, que con una arquitectura relativamente pequeña, un conjunto de datos acotado y una buena elección de las características, este método alcanza una eficacia cercana a la del estado del arte, con una sensitividad promedio de 89.5%, una precisión promedio de 89.3% y una exactitud promedio de 91.3%.
Fil: Gaona, Álvaro Joaquín. Universidad de Buenos Aires. Facultad de Ingeniería; Argentina
Fil: Arini, Pedro David. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Saavedra 15. Instituto Argentino de Matemática Alberto Calderón; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina
Materia
PHONOCRDIOGRAM
FOURIER SYNCHROSQUEEZED TRANSFORM
LONG SHORT-TERM MEMORY
Nivel de accesibilidad
acceso abierto
Condiciones de uso
https://creativecommons.org/licenses/by-nc-sa/2.5/ar/
Repositorio
CONICET Digital (CONICET)
Institución
Consejo Nacional de Investigaciones Científicas y Técnicas
OAI Identificador
oai:ri.conicet.gov.ar:11336/149992

id CONICETDig_1b40f04185375e627fde8c59db85d8d2
oai_identifier_str oai:ri.conicet.gov.ar:11336/149992
network_acronym_str CONICETDig
repository_id_str 3498
network_name_str CONICET Digital (CONICET)
spelling Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency FeaturesAprendizaje profundo y recurrente para la segmentación de sonidos cardíacos basado en características de frecuencia instantáneaGaona, Álvaro JoaquínArini, Pedro DavidPHONOCRDIOGRAMFOURIER SYNCHROSQUEEZED TRANSFORMLONG SHORT-TERM MEMORYhttps://purl.org/becyt/ford/2.11https://purl.org/becyt/ford/2In this work, a novel stack of well-known technologies is presented to determine an automatic method to segment the heart sounds in a phonocardiogram (PCG). We will show a deep recurrent neural network (DRNN) capable of segmenting a PCG into their main components and a very specific way of extracting instantaneous frequencythat will play an important role in the training and testing of the proposed model. More specifically, it involves an Long Short-Term Memory (LSTM) neural network accompaniedby the Fourier Synchrosqueezed Transform (FSST) used to extract instantaneous time-frequency features from a PCG. The present approach was tested on heart sound signalslonger than 5 seconds and shorter than 35 seconds from freely-available databases. This approach proved that, with a relatively small architecture, a small set of data and theright features, this method achieved an almost state-of-the-artperformance, showing an average sensitivity of 89.5%, anaverage positive predictive value of 89.3% and an averageaccuracy of 91.3%.En este trabajo se presenta un conjunto de técnicas bien conocidas definiendo un método automático para determinar los sonidos fundamentales en un fonocardiograma (PCG). Mostraremos una red neuronal recurrente capaz de segmentar un fonocardiograma en sus principales componentes, y una forma muy específica de extraer frecuencias instantáneas que jugarán un importante rol en el entrenamiento y validación del modelo propuesto. Más específicamente, el método propuesto involucra una red neuronal Long Short-Term Memory (LSTM) acompañada de la Transformada Sincronizada de Fourier (FSST) usada para extraer atributos en tiempo-frecuencia en un PCG. El presente enfoque fue evaluado con señales de fonocardiogramas mayores a 5 segundos y menores a 35 segundos de duración extraídos de bases de datos públicas. Se demostró, que con una arquitectura relativamente pequeña, un conjunto de datos acotado y una buena elección de las características, este método alcanza una eficacia cercana a la del estado del arte, con una sensitividad promedio de 89.5%, una precisión promedio de 89.3% y una exactitud promedio de 91.3%.Fil: Gaona, Álvaro Joaquín. Universidad de Buenos Aires. Facultad de Ingeniería; ArgentinaFil: Arini, Pedro David. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Saavedra 15. Instituto Argentino de Matemática Alberto Calderón; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaUniversidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica2020-10info:eu-repo/semantics/articleinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_6501info:ar-repo/semantics/articuloapplication/pdfapplication/pdfhttp://hdl.handle.net/11336/149992Gaona, Álvaro Joaquín; Arini, Pedro David; Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features; Universidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica; Elektron; 4; 2; 10-2020; 52-572525-0159CONICET DigitalCONICETenginfo:eu-repo/semantics/altIdentifier/doi/10.37537/rev.elektron.4.2.101.2020info:eu-repo/semantics/altIdentifier/url/http://elektron.fi.uba.ar/index.php/elektron/article/view/101info:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-nc-sa/2.5/ar/reponame:CONICET Digital (CONICET)instname:Consejo Nacional de Investigaciones Científicas y Técnicas2025-09-29T10:21:56Zoai:ri.conicet.gov.ar:11336/149992instacron:CONICETInstitucionalhttp://ri.conicet.gov.ar/Organismo científico-tecnológicoNo correspondehttp://ri.conicet.gov.ar/oai/requestdasensio@conicet.gov.ar; lcarlino@conicet.gov.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:34982025-09-29 10:21:56.619CONICET Digital (CONICET) - Consejo Nacional de Investigaciones Científicas y Técnicasfalse
dc.title.none.fl_str_mv Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features
Aprendizaje profundo y recurrente para la segmentación de sonidos cardíacos basado en características de frecuencia instantánea
title Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features
spellingShingle Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features
Gaona, Álvaro Joaquín
PHONOCRDIOGRAM
FOURIER SYNCHROSQUEEZED TRANSFORM
LONG SHORT-TERM MEMORY
title_short Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features
title_full Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features
title_fullStr Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features
title_full_unstemmed Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features
title_sort Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features
dc.creator.none.fl_str_mv Gaona, Álvaro Joaquín
Arini, Pedro David
author Gaona, Álvaro Joaquín
author_facet Gaona, Álvaro Joaquín
Arini, Pedro David
author_role author
author2 Arini, Pedro David
author2_role author
dc.subject.none.fl_str_mv PHONOCRDIOGRAM
FOURIER SYNCHROSQUEEZED TRANSFORM
LONG SHORT-TERM MEMORY
topic PHONOCRDIOGRAM
FOURIER SYNCHROSQUEEZED TRANSFORM
LONG SHORT-TERM MEMORY
purl_subject.fl_str_mv https://purl.org/becyt/ford/2.11
https://purl.org/becyt/ford/2
dc.description.none.fl_txt_mv In this work, a novel stack of well-known technologies is presented to determine an automatic method to segment the heart sounds in a phonocardiogram (PCG). We will show a deep recurrent neural network (DRNN) capable of segmenting a PCG into their main components and a very specific way of extracting instantaneous frequencythat will play an important role in the training and testing of the proposed model. More specifically, it involves an Long Short-Term Memory (LSTM) neural network accompaniedby the Fourier Synchrosqueezed Transform (FSST) used to extract instantaneous time-frequency features from a PCG. The present approach was tested on heart sound signalslonger than 5 seconds and shorter than 35 seconds from freely-available databases. This approach proved that, with a relatively small architecture, a small set of data and theright features, this method achieved an almost state-of-the-artperformance, showing an average sensitivity of 89.5%, anaverage positive predictive value of 89.3% and an averageaccuracy of 91.3%.
En este trabajo se presenta un conjunto de técnicas bien conocidas definiendo un método automático para determinar los sonidos fundamentales en un fonocardiograma (PCG). Mostraremos una red neuronal recurrente capaz de segmentar un fonocardiograma en sus principales componentes, y una forma muy específica de extraer frecuencias instantáneas que jugarán un importante rol en el entrenamiento y validación del modelo propuesto. Más específicamente, el método propuesto involucra una red neuronal Long Short-Term Memory (LSTM) acompañada de la Transformada Sincronizada de Fourier (FSST) usada para extraer atributos en tiempo-frecuencia en un PCG. El presente enfoque fue evaluado con señales de fonocardiogramas mayores a 5 segundos y menores a 35 segundos de duración extraídos de bases de datos públicas. Se demostró, que con una arquitectura relativamente pequeña, un conjunto de datos acotado y una buena elección de las características, este método alcanza una eficacia cercana a la del estado del arte, con una sensitividad promedio de 89.5%, una precisión promedio de 89.3% y una exactitud promedio de 91.3%.
Fil: Gaona, Álvaro Joaquín. Universidad de Buenos Aires. Facultad de Ingeniería; Argentina
Fil: Arini, Pedro David. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Saavedra 15. Instituto Argentino de Matemática Alberto Calderón; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina
description In this work, a novel stack of well-known technologies is presented to determine an automatic method to segment the heart sounds in a phonocardiogram (PCG). We will show a deep recurrent neural network (DRNN) capable of segmenting a PCG into their main components and a very specific way of extracting instantaneous frequencythat will play an important role in the training and testing of the proposed model. More specifically, it involves an Long Short-Term Memory (LSTM) neural network accompaniedby the Fourier Synchrosqueezed Transform (FSST) used to extract instantaneous time-frequency features from a PCG. The present approach was tested on heart sound signalslonger than 5 seconds and shorter than 35 seconds from freely-available databases. This approach proved that, with a relatively small architecture, a small set of data and theright features, this method achieved an almost state-of-the-artperformance, showing an average sensitivity of 89.5%, anaverage positive predictive value of 89.3% and an averageaccuracy of 91.3%.
publishDate 2020
dc.date.none.fl_str_mv 2020-10
dc.type.none.fl_str_mv info:eu-repo/semantics/article
info:eu-repo/semantics/publishedVersion
http://purl.org/coar/resource_type/c_6501
info:ar-repo/semantics/articulo
format article
status_str publishedVersion
dc.identifier.none.fl_str_mv http://hdl.handle.net/11336/149992
Gaona, Álvaro Joaquín; Arini, Pedro David; Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features; Universidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica; Elektron; 4; 2; 10-2020; 52-57
2525-0159
CONICET Digital
CONICET
url http://hdl.handle.net/11336/149992
identifier_str_mv Gaona, Álvaro Joaquín; Arini, Pedro David; Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features; Universidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica; Elektron; 4; 2; 10-2020; 52-57
2525-0159
CONICET Digital
CONICET
dc.language.none.fl_str_mv eng
language eng
dc.relation.none.fl_str_mv info:eu-repo/semantics/altIdentifier/doi/10.37537/rev.elektron.4.2.101.2020
info:eu-repo/semantics/altIdentifier/url/http://elektron.fi.uba.ar/index.php/elektron/article/view/101
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
https://creativecommons.org/licenses/by-nc-sa/2.5/ar/
eu_rights_str_mv openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by-nc-sa/2.5/ar/
dc.format.none.fl_str_mv application/pdf
application/pdf
dc.publisher.none.fl_str_mv Universidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica
publisher.none.fl_str_mv Universidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica
dc.source.none.fl_str_mv reponame:CONICET Digital (CONICET)
instname:Consejo Nacional de Investigaciones Científicas y Técnicas
reponame_str CONICET Digital (CONICET)
collection CONICET Digital (CONICET)
instname_str Consejo Nacional de Investigaciones Científicas y Técnicas
repository.name.fl_str_mv CONICET Digital (CONICET) - Consejo Nacional de Investigaciones Científicas y Técnicas
repository.mail.fl_str_mv dasensio@conicet.gov.ar; lcarlino@conicet.gov.ar
_version_ 1844614209627750400
score 13.070432