Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks

Autores
Rodríguez Colmeiro, Ramiro Germán; Verrastro, Claudio Abel; Minsky, Daniel Mauricio; Grosges, Thomas
Año de publicación
2021
Idioma
español castellano
Tipo de recurso
artículo
Estado
versión publicada
Descripción
The correction of attenuation effects in Positron Emission Tomography (PET) imaging is fundamental to ob-tain a correct radiotracer distribution. However direct measurement of this attenuation map is not error-free and normally results in additional ionization radiation dose to the patient. Here, we explore the task of whole body attenuation map generation using 3D deep neural networks. We analyze the advantages that an adversarial training can provide to such models. The networks are trained to learn the mapping from non attenuation corrected [18F]-fluorodeoxyglucose PET images to a synthetic Computerized Tomography (sCT) and also to label the input voxel tissue. Then the sCT image is further refined using an adversarial training scheme to recover higher frequency details and lost structures using context information. This work is trained and tested on public available datasets, containing several PET images from different scanners with different ra-diotracer administration and reconstruction modalities. The network is trained with 108 samples and validated on 10 samples. The sCT generation was tested on 133 samples from 8 distinct datasets. The resulting mean absolute error of the tested networks is 96 ± 20 HU and 103 ± 18 HU with a peak signal to noise ratio of 19.3 ± 1.7 dB and 18.6 ± 1.5 dB, for the base model and adversarial model respectively. The attenuation correction is tested by means of attenuation sinograms, obtaining a line of response attenuation mean error lower than 1% with a standard deviation lower than 8%. The proposed deep learning topologies are capable of generating whole body attenuation maps from uncorrected PET image data. Moreover, the accuracy of both methods holds in the presence of data from multiple sources and modalities and are trained on publicly available datasets. Finally, while the adversarial layer enhances visual appearance of the produced samples, the 3D U-Net achieves higher metric performance.
La corrección de los efectos de la atenuación en las imágenes de Tomografía por Emisión de Positrones (PET) es fundamental para obtener la correcta distribución del radio trazador. Sin embargo la medición directa del mapa de atenuación no esta libre de errores y normalmente resulta en la absorción de una dosis superior de radiación ionizante por parte del paciente. Aquí, exploramos la tarea de la generación del mapa de atenuación de cuerpo completo usando redes neuronales profundas 3D. Se analizan las ventajas que un entrenamiento adversario puede proveer a estos modelos. Las redes son entrenadas para aprender la conversión desde una imagen de [18F]- fluorodeoxyglucosa PET sin corrección de atenuación a una imagen sintética de Tomografía Computada (sCT) y además obtener una etiqueta del tipo de tejido ´ en los voxeles de la imagen. Luego la imagen de sCT es refinada usando un entrenamiento de tipo adversario para recobrar detalles de alta frecuencia y estructuras perdidas usando información contextual. Este trabajo es entrenado y probado sobre conjuntos de datos públicos, conteniendo distintas imágenes PET de diferentes tomógrafos, distintos modos de administración de dosis y modos de reconstrucción. La red es entrenada con 108 muestras y validada con 10 muestras. La generación del sCT fue probada con ´ 133 muestras de 8 conjuntos de datos independientes. El error medio absoluto de las redes es de 96±20 HU y 103±18 HU con una relación señal ruido pico de ˜ 103 ± 18 HU y 18.6±1.5 dB para el modelo base y el modelo adversario respectivamente. La corrección de atenuación es probada por medio de sinogramas, obteniendo un error medio en la atenuación de las líneas de respuesta menor al 1% con un desvió estándar menor al 8%. Las topologías de aprendizaje profundo propuestas son capaces de generar mapas de atenuación de cuerpo completo a partir de imágenes PET sin corregir. Además, la exactitud de los métodos se sostiene en presencia de datos de múltiples fuentes y modalidades y son entrenadas en conjuntos de datos públicos. Finalmente, mientras se observa que el entrenamiento adversario mejora la apariencia visual de los mapas generados, la topologa 3D U-Net obtiene mejor rendimiento en las métricas.
Fil: Rodríguez Colmeiro, Ramiro Germán. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Universite de Technologie de Troyes; Francia. Universidad Tecnológica Nacional; Argentina. Comisión Nacional de Energía Atómica; Argentina
Fil: Verrastro, Claudio Abel. Universidad Tecnológica Nacional; Argentina. Comisión Nacional de Energía Atómica; Argentina
Fil: Minsky, Daniel Mauricio. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Comisión Nacional de Energía Atómica; Argentina
Fil: Grosges, Thomas. Universite de Technologie de Troyes; Francia
Materia
ATTENUATION CORRECTION
DEEP LEARNING
GENERATIVE MODELS
POSITRON EMISSION TOMOGRAPHY
Nivel de accesibilidad
acceso abierto
Condiciones de uso
https://creativecommons.org/licenses/by-nc/2.5/ar/
Repositorio
CONICET Digital (CONICET)
Institución
Consejo Nacional de Investigaciones Científicas y Técnicas
OAI Identificador
oai:ri.conicet.gov.ar:11336/165254

id CONICETDig_3864bdaa9ac8425847226743438907c2
oai_identifier_str oai:ri.conicet.gov.ar:11336/165254
network_acronym_str CONICETDig
repository_id_str 3498
network_name_str CONICET Digital (CONICET)
spelling Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networksHacia la sinterización de mapas de atenuación de cuerpo completo para tomografía por emisión de positrones de [18F] FDG usando redes neuronales profundasRodríguez Colmeiro, Ramiro GermánVerrastro, Claudio AbelMinsky, Daniel MauricioGrosges, ThomasATTENUATION CORRECTIONDEEP LEARNINGGENERATIVE MODELSPOSITRON EMISSION TOMOGRAPHYhttps://purl.org/becyt/ford/2.2https://purl.org/becyt/ford/2The correction of attenuation effects in Positron Emission Tomography (PET) imaging is fundamental to ob-tain a correct radiotracer distribution. However direct measurement of this attenuation map is not error-free and normally results in additional ionization radiation dose to the patient. Here, we explore the task of whole body attenuation map generation using 3D deep neural networks. We analyze the advantages that an adversarial training can provide to such models. The networks are trained to learn the mapping from non attenuation corrected [18F]-fluorodeoxyglucose PET images to a synthetic Computerized Tomography (sCT) and also to label the input voxel tissue. Then the sCT image is further refined using an adversarial training scheme to recover higher frequency details and lost structures using context information. This work is trained and tested on public available datasets, containing several PET images from different scanners with different ra-diotracer administration and reconstruction modalities. The network is trained with 108 samples and validated on 10 samples. The sCT generation was tested on 133 samples from 8 distinct datasets. The resulting mean absolute error of the tested networks is 96 ± 20 HU and 103 ± 18 HU with a peak signal to noise ratio of 19.3 ± 1.7 dB and 18.6 ± 1.5 dB, for the base model and adversarial model respectively. The attenuation correction is tested by means of attenuation sinograms, obtaining a line of response attenuation mean error lower than 1% with a standard deviation lower than 8%. The proposed deep learning topologies are capable of generating whole body attenuation maps from uncorrected PET image data. Moreover, the accuracy of both methods holds in the presence of data from multiple sources and modalities and are trained on publicly available datasets. Finally, while the adversarial layer enhances visual appearance of the produced samples, the 3D U-Net achieves higher metric performance.La corrección de los efectos de la atenuación en las imágenes de Tomografía por Emisión de Positrones (PET) es fundamental para obtener la correcta distribución del radio trazador. Sin embargo la medición directa del mapa de atenuación no esta libre de errores y normalmente resulta en la absorción de una dosis superior de radiación ionizante por parte del paciente. Aquí, exploramos la tarea de la generación del mapa de atenuación de cuerpo completo usando redes neuronales profundas 3D. Se analizan las ventajas que un entrenamiento adversario puede proveer a estos modelos. Las redes son entrenadas para aprender la conversión desde una imagen de [18F]- fluorodeoxyglucosa PET sin corrección de atenuación a una imagen sintética de Tomografía Computada (sCT) y además obtener una etiqueta del tipo de tejido ´ en los voxeles de la imagen. Luego la imagen de sCT es refinada usando un entrenamiento de tipo adversario para recobrar detalles de alta frecuencia y estructuras perdidas usando información contextual. Este trabajo es entrenado y probado sobre conjuntos de datos públicos, conteniendo distintas imágenes PET de diferentes tomógrafos, distintos modos de administración de dosis y modos de reconstrucción. La red es entrenada con 108 muestras y validada con 10 muestras. La generación del sCT fue probada con ´ 133 muestras de 8 conjuntos de datos independientes. El error medio absoluto de las redes es de 96±20 HU y 103±18 HU con una relación señal ruido pico de ˜ 103 ± 18 HU y 18.6±1.5 dB para el modelo base y el modelo adversario respectivamente. La corrección de atenuación es probada por medio de sinogramas, obteniendo un error medio en la atenuación de las líneas de respuesta menor al 1% con un desvió estándar menor al 8%. Las topologías de aprendizaje profundo propuestas son capaces de generar mapas de atenuación de cuerpo completo a partir de imágenes PET sin corregir. Además, la exactitud de los métodos se sostiene en presencia de datos de múltiples fuentes y modalidades y son entrenadas en conjuntos de datos públicos. Finalmente, mientras se observa que el entrenamiento adversario mejora la apariencia visual de los mapas generados, la topologa 3D U-Net obtiene mejor rendimiento en las métricas.Fil: Rodríguez Colmeiro, Ramiro Germán. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Universite de Technologie de Troyes; Francia. Universidad Tecnológica Nacional; Argentina. Comisión Nacional de Energía Atómica; ArgentinaFil: Verrastro, Claudio Abel. Universidad Tecnológica Nacional; Argentina. Comisión Nacional de Energía Atómica; ArgentinaFil: Minsky, Daniel Mauricio. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Comisión Nacional de Energía Atómica; ArgentinaFil: Grosges, Thomas. Universite de Technologie de Troyes; FranciaUniversidad Nacional de La Plata. Facultad de Informática2021-04info:eu-repo/semantics/articleinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_6501info:ar-repo/semantics/articuloapplication/pdfapplication/pdfhttp://hdl.handle.net/11336/165254Rodríguez Colmeiro, Ramiro Germán; Verrastro, Claudio Abel; Minsky, Daniel Mauricio; Grosges, Thomas; Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks; Universidad Nacional de La Plata. Facultad de Informática; Journal of Computer Science and Technology; 21; 1; 4-2021; 29-411666-60461666-6038CONICET DigitalCONICETspainfo:eu-repo/semantics/altIdentifier/url/https://journal.info.unlp.edu.ar/JCST/article/view/1519info:eu-repo/semantics/altIdentifier/doi/10.24215/16666038.21.E4info:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-nc/2.5/ar/reponame:CONICET Digital (CONICET)instname:Consejo Nacional de Investigaciones Científicas y Técnicas2025-09-03T10:03:38Zoai:ri.conicet.gov.ar:11336/165254instacron:CONICETInstitucionalhttp://ri.conicet.gov.ar/Organismo científico-tecnológicoNo correspondehttp://ri.conicet.gov.ar/oai/requestdasensio@conicet.gov.ar; lcarlino@conicet.gov.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:34982025-09-03 10:03:38.894CONICET Digital (CONICET) - Consejo Nacional de Investigaciones Científicas y Técnicasfalse
dc.title.none.fl_str_mv Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks
Hacia la sinterización de mapas de atenuación de cuerpo completo para tomografía por emisión de positrones de [18F] FDG usando redes neuronales profundas
title Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks
spellingShingle Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks
Rodríguez Colmeiro, Ramiro Germán
ATTENUATION CORRECTION
DEEP LEARNING
GENERATIVE MODELS
POSITRON EMISSION TOMOGRAPHY
title_short Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks
title_full Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks
title_fullStr Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks
title_full_unstemmed Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks
title_sort Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks
dc.creator.none.fl_str_mv Rodríguez Colmeiro, Ramiro Germán
Verrastro, Claudio Abel
Minsky, Daniel Mauricio
Grosges, Thomas
author Rodríguez Colmeiro, Ramiro Germán
author_facet Rodríguez Colmeiro, Ramiro Germán
Verrastro, Claudio Abel
Minsky, Daniel Mauricio
Grosges, Thomas
author_role author
author2 Verrastro, Claudio Abel
Minsky, Daniel Mauricio
Grosges, Thomas
author2_role author
author
author
dc.subject.none.fl_str_mv ATTENUATION CORRECTION
DEEP LEARNING
GENERATIVE MODELS
POSITRON EMISSION TOMOGRAPHY
topic ATTENUATION CORRECTION
DEEP LEARNING
GENERATIVE MODELS
POSITRON EMISSION TOMOGRAPHY
purl_subject.fl_str_mv https://purl.org/becyt/ford/2.2
https://purl.org/becyt/ford/2
dc.description.none.fl_txt_mv The correction of attenuation effects in Positron Emission Tomography (PET) imaging is fundamental to ob-tain a correct radiotracer distribution. However direct measurement of this attenuation map is not error-free and normally results in additional ionization radiation dose to the patient. Here, we explore the task of whole body attenuation map generation using 3D deep neural networks. We analyze the advantages that an adversarial training can provide to such models. The networks are trained to learn the mapping from non attenuation corrected [18F]-fluorodeoxyglucose PET images to a synthetic Computerized Tomography (sCT) and also to label the input voxel tissue. Then the sCT image is further refined using an adversarial training scheme to recover higher frequency details and lost structures using context information. This work is trained and tested on public available datasets, containing several PET images from different scanners with different ra-diotracer administration and reconstruction modalities. The network is trained with 108 samples and validated on 10 samples. The sCT generation was tested on 133 samples from 8 distinct datasets. The resulting mean absolute error of the tested networks is 96 ± 20 HU and 103 ± 18 HU with a peak signal to noise ratio of 19.3 ± 1.7 dB and 18.6 ± 1.5 dB, for the base model and adversarial model respectively. The attenuation correction is tested by means of attenuation sinograms, obtaining a line of response attenuation mean error lower than 1% with a standard deviation lower than 8%. The proposed deep learning topologies are capable of generating whole body attenuation maps from uncorrected PET image data. Moreover, the accuracy of both methods holds in the presence of data from multiple sources and modalities and are trained on publicly available datasets. Finally, while the adversarial layer enhances visual appearance of the produced samples, the 3D U-Net achieves higher metric performance.
La corrección de los efectos de la atenuación en las imágenes de Tomografía por Emisión de Positrones (PET) es fundamental para obtener la correcta distribución del radio trazador. Sin embargo la medición directa del mapa de atenuación no esta libre de errores y normalmente resulta en la absorción de una dosis superior de radiación ionizante por parte del paciente. Aquí, exploramos la tarea de la generación del mapa de atenuación de cuerpo completo usando redes neuronales profundas 3D. Se analizan las ventajas que un entrenamiento adversario puede proveer a estos modelos. Las redes son entrenadas para aprender la conversión desde una imagen de [18F]- fluorodeoxyglucosa PET sin corrección de atenuación a una imagen sintética de Tomografía Computada (sCT) y además obtener una etiqueta del tipo de tejido ´ en los voxeles de la imagen. Luego la imagen de sCT es refinada usando un entrenamiento de tipo adversario para recobrar detalles de alta frecuencia y estructuras perdidas usando información contextual. Este trabajo es entrenado y probado sobre conjuntos de datos públicos, conteniendo distintas imágenes PET de diferentes tomógrafos, distintos modos de administración de dosis y modos de reconstrucción. La red es entrenada con 108 muestras y validada con 10 muestras. La generación del sCT fue probada con ´ 133 muestras de 8 conjuntos de datos independientes. El error medio absoluto de las redes es de 96±20 HU y 103±18 HU con una relación señal ruido pico de ˜ 103 ± 18 HU y 18.6±1.5 dB para el modelo base y el modelo adversario respectivamente. La corrección de atenuación es probada por medio de sinogramas, obteniendo un error medio en la atenuación de las líneas de respuesta menor al 1% con un desvió estándar menor al 8%. Las topologías de aprendizaje profundo propuestas son capaces de generar mapas de atenuación de cuerpo completo a partir de imágenes PET sin corregir. Además, la exactitud de los métodos se sostiene en presencia de datos de múltiples fuentes y modalidades y son entrenadas en conjuntos de datos públicos. Finalmente, mientras se observa que el entrenamiento adversario mejora la apariencia visual de los mapas generados, la topologa 3D U-Net obtiene mejor rendimiento en las métricas.
Fil: Rodríguez Colmeiro, Ramiro Germán. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Universite de Technologie de Troyes; Francia. Universidad Tecnológica Nacional; Argentina. Comisión Nacional de Energía Atómica; Argentina
Fil: Verrastro, Claudio Abel. Universidad Tecnológica Nacional; Argentina. Comisión Nacional de Energía Atómica; Argentina
Fil: Minsky, Daniel Mauricio. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Comisión Nacional de Energía Atómica; Argentina
Fil: Grosges, Thomas. Universite de Technologie de Troyes; Francia
description The correction of attenuation effects in Positron Emission Tomography (PET) imaging is fundamental to ob-tain a correct radiotracer distribution. However direct measurement of this attenuation map is not error-free and normally results in additional ionization radiation dose to the patient. Here, we explore the task of whole body attenuation map generation using 3D deep neural networks. We analyze the advantages that an adversarial training can provide to such models. The networks are trained to learn the mapping from non attenuation corrected [18F]-fluorodeoxyglucose PET images to a synthetic Computerized Tomography (sCT) and also to label the input voxel tissue. Then the sCT image is further refined using an adversarial training scheme to recover higher frequency details and lost structures using context information. This work is trained and tested on public available datasets, containing several PET images from different scanners with different ra-diotracer administration and reconstruction modalities. The network is trained with 108 samples and validated on 10 samples. The sCT generation was tested on 133 samples from 8 distinct datasets. The resulting mean absolute error of the tested networks is 96 ± 20 HU and 103 ± 18 HU with a peak signal to noise ratio of 19.3 ± 1.7 dB and 18.6 ± 1.5 dB, for the base model and adversarial model respectively. The attenuation correction is tested by means of attenuation sinograms, obtaining a line of response attenuation mean error lower than 1% with a standard deviation lower than 8%. The proposed deep learning topologies are capable of generating whole body attenuation maps from uncorrected PET image data. Moreover, the accuracy of both methods holds in the presence of data from multiple sources and modalities and are trained on publicly available datasets. Finally, while the adversarial layer enhances visual appearance of the produced samples, the 3D U-Net achieves higher metric performance.
publishDate 2021
dc.date.none.fl_str_mv 2021-04
dc.type.none.fl_str_mv info:eu-repo/semantics/article
info:eu-repo/semantics/publishedVersion
http://purl.org/coar/resource_type/c_6501
info:ar-repo/semantics/articulo
format article
status_str publishedVersion
dc.identifier.none.fl_str_mv http://hdl.handle.net/11336/165254
Rodríguez Colmeiro, Ramiro Germán; Verrastro, Claudio Abel; Minsky, Daniel Mauricio; Grosges, Thomas; Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks; Universidad Nacional de La Plata. Facultad de Informática; Journal of Computer Science and Technology; 21; 1; 4-2021; 29-41
1666-6046
1666-6038
CONICET Digital
CONICET
url http://hdl.handle.net/11336/165254
identifier_str_mv Rodríguez Colmeiro, Ramiro Germán; Verrastro, Claudio Abel; Minsky, Daniel Mauricio; Grosges, Thomas; Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks; Universidad Nacional de La Plata. Facultad de Informática; Journal of Computer Science and Technology; 21; 1; 4-2021; 29-41
1666-6046
1666-6038
CONICET Digital
CONICET
dc.language.none.fl_str_mv spa
language spa
dc.relation.none.fl_str_mv info:eu-repo/semantics/altIdentifier/url/https://journal.info.unlp.edu.ar/JCST/article/view/1519
info:eu-repo/semantics/altIdentifier/doi/10.24215/16666038.21.E4
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
https://creativecommons.org/licenses/by-nc/2.5/ar/
eu_rights_str_mv openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by-nc/2.5/ar/
dc.format.none.fl_str_mv application/pdf
application/pdf
dc.publisher.none.fl_str_mv Universidad Nacional de La Plata. Facultad de Informática
publisher.none.fl_str_mv Universidad Nacional de La Plata. Facultad de Informática
dc.source.none.fl_str_mv reponame:CONICET Digital (CONICET)
instname:Consejo Nacional de Investigaciones Científicas y Técnicas
reponame_str CONICET Digital (CONICET)
collection CONICET Digital (CONICET)
instname_str Consejo Nacional de Investigaciones Científicas y Técnicas
repository.name.fl_str_mv CONICET Digital (CONICET) - Consejo Nacional de Investigaciones Científicas y Técnicas
repository.mail.fl_str_mv dasensio@conicet.gov.ar; lcarlino@conicet.gov.ar
_version_ 1842269811889930240
score 13.13397