Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features
- Autores
- Gaona, Álvaro Joaquín; Arini, Pedro David
- Año de publicación
- 2020
- Idioma
- inglés
- Tipo de recurso
- artículo
- Estado
- versión publicada
- Descripción
- In this work, a novel stack of well-known technologies is presented to determine an automatic method to segment the heart sounds in a phonocardiogram (PCG). We will show a deep recurrent neural network (DRNN) capable of segmenting a PCG into their main components and a very specific way of extracting instantaneous frequencythat will play an important role in the training and testing of the proposed model. More specifically, it involves an Long Short-Term Memory (LSTM) neural network accompaniedby the Fourier Synchrosqueezed Transform (FSST) used to extract instantaneous time-frequency features from a PCG. The present approach was tested on heart sound signalslonger than 5 seconds and shorter than 35 seconds from freely-available databases. This approach proved that, with a relatively small architecture, a small set of data and theright features, this method achieved an almost state-of-the-artperformance, showing an average sensitivity of 89.5%, anaverage positive predictive value of 89.3% and an averageaccuracy of 91.3%.
En este trabajo se presenta un conjunto de técnicas bien conocidas definiendo un método automático para determinar los sonidos fundamentales en un fonocardiograma (PCG). Mostraremos una red neuronal recurrente capaz de segmentar un fonocardiograma en sus principales componentes, y una forma muy específica de extraer frecuencias instantáneas que jugarán un importante rol en el entrenamiento y validación del modelo propuesto. Más específicamente, el método propuesto involucra una red neuronal Long Short-Term Memory (LSTM) acompañada de la Transformada Sincronizada de Fourier (FSST) usada para extraer atributos en tiempo-frecuencia en un PCG. El presente enfoque fue evaluado con señales de fonocardiogramas mayores a 5 segundos y menores a 35 segundos de duración extraídos de bases de datos públicas. Se demostró, que con una arquitectura relativamente pequeña, un conjunto de datos acotado y una buena elección de las características, este método alcanza una eficacia cercana a la del estado del arte, con una sensitividad promedio de 89.5%, una precisión promedio de 89.3% y una exactitud promedio de 91.3%.
Fil: Gaona, Álvaro Joaquín. Universidad de Buenos Aires. Facultad de Ingeniería; Argentina
Fil: Arini, Pedro David. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Saavedra 15. Instituto Argentino de Matemática Alberto Calderón; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina - Materia
-
PHONOCRDIOGRAM
FOURIER SYNCHROSQUEEZED TRANSFORM
LONG SHORT-TERM MEMORY - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- https://creativecommons.org/licenses/by-nc-sa/2.5/ar/
- Repositorio
- Institución
- Consejo Nacional de Investigaciones Científicas y Técnicas
- OAI Identificador
- oai:ri.conicet.gov.ar:11336/149992
Ver los metadatos del registro completo
id |
CONICETDig_1b40f04185375e627fde8c59db85d8d2 |
---|---|
oai_identifier_str |
oai:ri.conicet.gov.ar:11336/149992 |
network_acronym_str |
CONICETDig |
repository_id_str |
3498 |
network_name_str |
CONICET Digital (CONICET) |
spelling |
Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency FeaturesAprendizaje profundo y recurrente para la segmentación de sonidos cardíacos basado en características de frecuencia instantáneaGaona, Álvaro JoaquínArini, Pedro DavidPHONOCRDIOGRAMFOURIER SYNCHROSQUEEZED TRANSFORMLONG SHORT-TERM MEMORYhttps://purl.org/becyt/ford/2.11https://purl.org/becyt/ford/2In this work, a novel stack of well-known technologies is presented to determine an automatic method to segment the heart sounds in a phonocardiogram (PCG). We will show a deep recurrent neural network (DRNN) capable of segmenting a PCG into their main components and a very specific way of extracting instantaneous frequencythat will play an important role in the training and testing of the proposed model. More specifically, it involves an Long Short-Term Memory (LSTM) neural network accompaniedby the Fourier Synchrosqueezed Transform (FSST) used to extract instantaneous time-frequency features from a PCG. The present approach was tested on heart sound signalslonger than 5 seconds and shorter than 35 seconds from freely-available databases. This approach proved that, with a relatively small architecture, a small set of data and theright features, this method achieved an almost state-of-the-artperformance, showing an average sensitivity of 89.5%, anaverage positive predictive value of 89.3% and an averageaccuracy of 91.3%.En este trabajo se presenta un conjunto de técnicas bien conocidas definiendo un método automático para determinar los sonidos fundamentales en un fonocardiograma (PCG). Mostraremos una red neuronal recurrente capaz de segmentar un fonocardiograma en sus principales componentes, y una forma muy específica de extraer frecuencias instantáneas que jugarán un importante rol en el entrenamiento y validación del modelo propuesto. Más específicamente, el método propuesto involucra una red neuronal Long Short-Term Memory (LSTM) acompañada de la Transformada Sincronizada de Fourier (FSST) usada para extraer atributos en tiempo-frecuencia en un PCG. El presente enfoque fue evaluado con señales de fonocardiogramas mayores a 5 segundos y menores a 35 segundos de duración extraídos de bases de datos públicas. Se demostró, que con una arquitectura relativamente pequeña, un conjunto de datos acotado y una buena elección de las características, este método alcanza una eficacia cercana a la del estado del arte, con una sensitividad promedio de 89.5%, una precisión promedio de 89.3% y una exactitud promedio de 91.3%.Fil: Gaona, Álvaro Joaquín. Universidad de Buenos Aires. Facultad de Ingeniería; ArgentinaFil: Arini, Pedro David. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Saavedra 15. Instituto Argentino de Matemática Alberto Calderón; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaUniversidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica2020-10info:eu-repo/semantics/articleinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_6501info:ar-repo/semantics/articuloapplication/pdfapplication/pdfhttp://hdl.handle.net/11336/149992Gaona, Álvaro Joaquín; Arini, Pedro David; Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features; Universidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica; Elektron; 4; 2; 10-2020; 52-572525-0159CONICET DigitalCONICETenginfo:eu-repo/semantics/altIdentifier/doi/10.37537/rev.elektron.4.2.101.2020info:eu-repo/semantics/altIdentifier/url/http://elektron.fi.uba.ar/index.php/elektron/article/view/101info:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-nc-sa/2.5/ar/reponame:CONICET Digital (CONICET)instname:Consejo Nacional de Investigaciones Científicas y Técnicas2025-09-29T10:21:56Zoai:ri.conicet.gov.ar:11336/149992instacron:CONICETInstitucionalhttp://ri.conicet.gov.ar/Organismo científico-tecnológicoNo correspondehttp://ri.conicet.gov.ar/oai/requestdasensio@conicet.gov.ar; lcarlino@conicet.gov.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:34982025-09-29 10:21:56.619CONICET Digital (CONICET) - Consejo Nacional de Investigaciones Científicas y Técnicasfalse |
dc.title.none.fl_str_mv |
Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features Aprendizaje profundo y recurrente para la segmentación de sonidos cardíacos basado en características de frecuencia instantánea |
title |
Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features |
spellingShingle |
Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features Gaona, Álvaro Joaquín PHONOCRDIOGRAM FOURIER SYNCHROSQUEEZED TRANSFORM LONG SHORT-TERM MEMORY |
title_short |
Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features |
title_full |
Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features |
title_fullStr |
Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features |
title_full_unstemmed |
Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features |
title_sort |
Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features |
dc.creator.none.fl_str_mv |
Gaona, Álvaro Joaquín Arini, Pedro David |
author |
Gaona, Álvaro Joaquín |
author_facet |
Gaona, Álvaro Joaquín Arini, Pedro David |
author_role |
author |
author2 |
Arini, Pedro David |
author2_role |
author |
dc.subject.none.fl_str_mv |
PHONOCRDIOGRAM FOURIER SYNCHROSQUEEZED TRANSFORM LONG SHORT-TERM MEMORY |
topic |
PHONOCRDIOGRAM FOURIER SYNCHROSQUEEZED TRANSFORM LONG SHORT-TERM MEMORY |
purl_subject.fl_str_mv |
https://purl.org/becyt/ford/2.11 https://purl.org/becyt/ford/2 |
dc.description.none.fl_txt_mv |
In this work, a novel stack of well-known technologies is presented to determine an automatic method to segment the heart sounds in a phonocardiogram (PCG). We will show a deep recurrent neural network (DRNN) capable of segmenting a PCG into their main components and a very specific way of extracting instantaneous frequencythat will play an important role in the training and testing of the proposed model. More specifically, it involves an Long Short-Term Memory (LSTM) neural network accompaniedby the Fourier Synchrosqueezed Transform (FSST) used to extract instantaneous time-frequency features from a PCG. The present approach was tested on heart sound signalslonger than 5 seconds and shorter than 35 seconds from freely-available databases. This approach proved that, with a relatively small architecture, a small set of data and theright features, this method achieved an almost state-of-the-artperformance, showing an average sensitivity of 89.5%, anaverage positive predictive value of 89.3% and an averageaccuracy of 91.3%. En este trabajo se presenta un conjunto de técnicas bien conocidas definiendo un método automático para determinar los sonidos fundamentales en un fonocardiograma (PCG). Mostraremos una red neuronal recurrente capaz de segmentar un fonocardiograma en sus principales componentes, y una forma muy específica de extraer frecuencias instantáneas que jugarán un importante rol en el entrenamiento y validación del modelo propuesto. Más específicamente, el método propuesto involucra una red neuronal Long Short-Term Memory (LSTM) acompañada de la Transformada Sincronizada de Fourier (FSST) usada para extraer atributos en tiempo-frecuencia en un PCG. El presente enfoque fue evaluado con señales de fonocardiogramas mayores a 5 segundos y menores a 35 segundos de duración extraídos de bases de datos públicas. Se demostró, que con una arquitectura relativamente pequeña, un conjunto de datos acotado y una buena elección de las características, este método alcanza una eficacia cercana a la del estado del arte, con una sensitividad promedio de 89.5%, una precisión promedio de 89.3% y una exactitud promedio de 91.3%. Fil: Gaona, Álvaro Joaquín. Universidad de Buenos Aires. Facultad de Ingeniería; Argentina Fil: Arini, Pedro David. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Saavedra 15. Instituto Argentino de Matemática Alberto Calderón; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina |
description |
In this work, a novel stack of well-known technologies is presented to determine an automatic method to segment the heart sounds in a phonocardiogram (PCG). We will show a deep recurrent neural network (DRNN) capable of segmenting a PCG into their main components and a very specific way of extracting instantaneous frequencythat will play an important role in the training and testing of the proposed model. More specifically, it involves an Long Short-Term Memory (LSTM) neural network accompaniedby the Fourier Synchrosqueezed Transform (FSST) used to extract instantaneous time-frequency features from a PCG. The present approach was tested on heart sound signalslonger than 5 seconds and shorter than 35 seconds from freely-available databases. This approach proved that, with a relatively small architecture, a small set of data and theright features, this method achieved an almost state-of-the-artperformance, showing an average sensitivity of 89.5%, anaverage positive predictive value of 89.3% and an averageaccuracy of 91.3%. |
publishDate |
2020 |
dc.date.none.fl_str_mv |
2020-10 |
dc.type.none.fl_str_mv |
info:eu-repo/semantics/article info:eu-repo/semantics/publishedVersion http://purl.org/coar/resource_type/c_6501 info:ar-repo/semantics/articulo |
format |
article |
status_str |
publishedVersion |
dc.identifier.none.fl_str_mv |
http://hdl.handle.net/11336/149992 Gaona, Álvaro Joaquín; Arini, Pedro David; Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features; Universidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica; Elektron; 4; 2; 10-2020; 52-57 2525-0159 CONICET Digital CONICET |
url |
http://hdl.handle.net/11336/149992 |
identifier_str_mv |
Gaona, Álvaro Joaquín; Arini, Pedro David; Deep Recurrent Learning for Heart Sounds Segmentation based on Instantaneous Frequency Features; Universidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica; Elektron; 4; 2; 10-2020; 52-57 2525-0159 CONICET Digital CONICET |
dc.language.none.fl_str_mv |
eng |
language |
eng |
dc.relation.none.fl_str_mv |
info:eu-repo/semantics/altIdentifier/doi/10.37537/rev.elektron.4.2.101.2020 info:eu-repo/semantics/altIdentifier/url/http://elektron.fi.uba.ar/index.php/elektron/article/view/101 |
dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess https://creativecommons.org/licenses/by-nc-sa/2.5/ar/ |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
https://creativecommons.org/licenses/by-nc-sa/2.5/ar/ |
dc.format.none.fl_str_mv |
application/pdf application/pdf |
dc.publisher.none.fl_str_mv |
Universidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica |
publisher.none.fl_str_mv |
Universidad de Buenos Aires. Facultad de Ingeniería. Departamento de Electrónica |
dc.source.none.fl_str_mv |
reponame:CONICET Digital (CONICET) instname:Consejo Nacional de Investigaciones Científicas y Técnicas |
reponame_str |
CONICET Digital (CONICET) |
collection |
CONICET Digital (CONICET) |
instname_str |
Consejo Nacional de Investigaciones Científicas y Técnicas |
repository.name.fl_str_mv |
CONICET Digital (CONICET) - Consejo Nacional de Investigaciones Científicas y Técnicas |
repository.mail.fl_str_mv |
dasensio@conicet.gov.ar; lcarlino@conicet.gov.ar |
_version_ |
1844614209627750400 |
score |
13.070432 |