Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks
- Autores
- Rodríguez Colmeiro, Ramiro Germán; Verrastro, Claudio Abel; Minsky, Daniel Mauricio; Grosges, Thomas
- Año de publicación
- 2021
- Idioma
- español castellano
- Tipo de recurso
- artículo
- Estado
- versión publicada
- Descripción
- The correction of attenuation effects in Positron Emission Tomography (PET) imaging is fundamental to ob-tain a correct radiotracer distribution. However direct measurement of this attenuation map is not error-free and normally results in additional ionization radiation dose to the patient. Here, we explore the task of whole body attenuation map generation using 3D deep neural networks. We analyze the advantages that an adversarial training can provide to such models. The networks are trained to learn the mapping from non attenuation corrected [18F]-fluorodeoxyglucose PET images to a synthetic Computerized Tomography (sCT) and also to label the input voxel tissue. Then the sCT image is further refined using an adversarial training scheme to recover higher frequency details and lost structures using context information. This work is trained and tested on public available datasets, containing several PET images from different scanners with different ra-diotracer administration and reconstruction modalities. The network is trained with 108 samples and validated on 10 samples. The sCT generation was tested on 133 samples from 8 distinct datasets. The resulting mean absolute error of the tested networks is 96 ± 20 HU and 103 ± 18 HU with a peak signal to noise ratio of 19.3 ± 1.7 dB and 18.6 ± 1.5 dB, for the base model and adversarial model respectively. The attenuation correction is tested by means of attenuation sinograms, obtaining a line of response attenuation mean error lower than 1% with a standard deviation lower than 8%. The proposed deep learning topologies are capable of generating whole body attenuation maps from uncorrected PET image data. Moreover, the accuracy of both methods holds in the presence of data from multiple sources and modalities and are trained on publicly available datasets. Finally, while the adversarial layer enhances visual appearance of the produced samples, the 3D U-Net achieves higher metric performance.
La corrección de los efectos de la atenuación en las imágenes de Tomografía por Emisión de Positrones (PET) es fundamental para obtener la correcta distribución del radio trazador. Sin embargo la medición directa del mapa de atenuación no esta libre de errores y normalmente resulta en la absorción de una dosis superior de radiación ionizante por parte del paciente. Aquí, exploramos la tarea de la generación del mapa de atenuación de cuerpo completo usando redes neuronales profundas 3D. Se analizan las ventajas que un entrenamiento adversario puede proveer a estos modelos. Las redes son entrenadas para aprender la conversión desde una imagen de [18F]- fluorodeoxyglucosa PET sin corrección de atenuación a una imagen sintética de Tomografía Computada (sCT) y además obtener una etiqueta del tipo de tejido ´ en los voxeles de la imagen. Luego la imagen de sCT es refinada usando un entrenamiento de tipo adversario para recobrar detalles de alta frecuencia y estructuras perdidas usando información contextual. Este trabajo es entrenado y probado sobre conjuntos de datos públicos, conteniendo distintas imágenes PET de diferentes tomógrafos, distintos modos de administración de dosis y modos de reconstrucción. La red es entrenada con 108 muestras y validada con 10 muestras. La generación del sCT fue probada con ´ 133 muestras de 8 conjuntos de datos independientes. El error medio absoluto de las redes es de 96±20 HU y 103±18 HU con una relación señal ruido pico de ˜ 103 ± 18 HU y 18.6±1.5 dB para el modelo base y el modelo adversario respectivamente. La corrección de atenuación es probada por medio de sinogramas, obteniendo un error medio en la atenuación de las líneas de respuesta menor al 1% con un desvió estándar menor al 8%. Las topologías de aprendizaje profundo propuestas son capaces de generar mapas de atenuación de cuerpo completo a partir de imágenes PET sin corregir. Además, la exactitud de los métodos se sostiene en presencia de datos de múltiples fuentes y modalidades y son entrenadas en conjuntos de datos públicos. Finalmente, mientras se observa que el entrenamiento adversario mejora la apariencia visual de los mapas generados, la topologa 3D U-Net obtiene mejor rendimiento en las métricas.
Fil: Rodríguez Colmeiro, Ramiro Germán. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Universite de Technologie de Troyes; Francia. Universidad Tecnológica Nacional; Argentina. Comisión Nacional de Energía Atómica; Argentina
Fil: Verrastro, Claudio Abel. Universidad Tecnológica Nacional; Argentina. Comisión Nacional de Energía Atómica; Argentina
Fil: Minsky, Daniel Mauricio. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Comisión Nacional de Energía Atómica; Argentina
Fil: Grosges, Thomas. Universite de Technologie de Troyes; Francia - Materia
-
ATTENUATION CORRECTION
DEEP LEARNING
GENERATIVE MODELS
POSITRON EMISSION TOMOGRAPHY - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- https://creativecommons.org/licenses/by-nc/2.5/ar/
- Repositorio
- Institución
- Consejo Nacional de Investigaciones Científicas y Técnicas
- OAI Identificador
- oai:ri.conicet.gov.ar:11336/165254
Ver los metadatos del registro completo
id |
CONICETDig_3864bdaa9ac8425847226743438907c2 |
---|---|
oai_identifier_str |
oai:ri.conicet.gov.ar:11336/165254 |
network_acronym_str |
CONICETDig |
repository_id_str |
3498 |
network_name_str |
CONICET Digital (CONICET) |
spelling |
Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networksHacia la sinterización de mapas de atenuación de cuerpo completo para tomografía por emisión de positrones de [18F] FDG usando redes neuronales profundasRodríguez Colmeiro, Ramiro GermánVerrastro, Claudio AbelMinsky, Daniel MauricioGrosges, ThomasATTENUATION CORRECTIONDEEP LEARNINGGENERATIVE MODELSPOSITRON EMISSION TOMOGRAPHYhttps://purl.org/becyt/ford/2.2https://purl.org/becyt/ford/2The correction of attenuation effects in Positron Emission Tomography (PET) imaging is fundamental to ob-tain a correct radiotracer distribution. However direct measurement of this attenuation map is not error-free and normally results in additional ionization radiation dose to the patient. Here, we explore the task of whole body attenuation map generation using 3D deep neural networks. We analyze the advantages that an adversarial training can provide to such models. The networks are trained to learn the mapping from non attenuation corrected [18F]-fluorodeoxyglucose PET images to a synthetic Computerized Tomography (sCT) and also to label the input voxel tissue. Then the sCT image is further refined using an adversarial training scheme to recover higher frequency details and lost structures using context information. This work is trained and tested on public available datasets, containing several PET images from different scanners with different ra-diotracer administration and reconstruction modalities. The network is trained with 108 samples and validated on 10 samples. The sCT generation was tested on 133 samples from 8 distinct datasets. The resulting mean absolute error of the tested networks is 96 ± 20 HU and 103 ± 18 HU with a peak signal to noise ratio of 19.3 ± 1.7 dB and 18.6 ± 1.5 dB, for the base model and adversarial model respectively. The attenuation correction is tested by means of attenuation sinograms, obtaining a line of response attenuation mean error lower than 1% with a standard deviation lower than 8%. The proposed deep learning topologies are capable of generating whole body attenuation maps from uncorrected PET image data. Moreover, the accuracy of both methods holds in the presence of data from multiple sources and modalities and are trained on publicly available datasets. Finally, while the adversarial layer enhances visual appearance of the produced samples, the 3D U-Net achieves higher metric performance.La corrección de los efectos de la atenuación en las imágenes de Tomografía por Emisión de Positrones (PET) es fundamental para obtener la correcta distribución del radio trazador. Sin embargo la medición directa del mapa de atenuación no esta libre de errores y normalmente resulta en la absorción de una dosis superior de radiación ionizante por parte del paciente. Aquí, exploramos la tarea de la generación del mapa de atenuación de cuerpo completo usando redes neuronales profundas 3D. Se analizan las ventajas que un entrenamiento adversario puede proveer a estos modelos. Las redes son entrenadas para aprender la conversión desde una imagen de [18F]- fluorodeoxyglucosa PET sin corrección de atenuación a una imagen sintética de Tomografía Computada (sCT) y además obtener una etiqueta del tipo de tejido ´ en los voxeles de la imagen. Luego la imagen de sCT es refinada usando un entrenamiento de tipo adversario para recobrar detalles de alta frecuencia y estructuras perdidas usando información contextual. Este trabajo es entrenado y probado sobre conjuntos de datos públicos, conteniendo distintas imágenes PET de diferentes tomógrafos, distintos modos de administración de dosis y modos de reconstrucción. La red es entrenada con 108 muestras y validada con 10 muestras. La generación del sCT fue probada con ´ 133 muestras de 8 conjuntos de datos independientes. El error medio absoluto de las redes es de 96±20 HU y 103±18 HU con una relación señal ruido pico de ˜ 103 ± 18 HU y 18.6±1.5 dB para el modelo base y el modelo adversario respectivamente. La corrección de atenuación es probada por medio de sinogramas, obteniendo un error medio en la atenuación de las líneas de respuesta menor al 1% con un desvió estándar menor al 8%. Las topologías de aprendizaje profundo propuestas son capaces de generar mapas de atenuación de cuerpo completo a partir de imágenes PET sin corregir. Además, la exactitud de los métodos se sostiene en presencia de datos de múltiples fuentes y modalidades y son entrenadas en conjuntos de datos públicos. Finalmente, mientras se observa que el entrenamiento adversario mejora la apariencia visual de los mapas generados, la topologa 3D U-Net obtiene mejor rendimiento en las métricas.Fil: Rodríguez Colmeiro, Ramiro Germán. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Universite de Technologie de Troyes; Francia. Universidad Tecnológica Nacional; Argentina. Comisión Nacional de Energía Atómica; ArgentinaFil: Verrastro, Claudio Abel. Universidad Tecnológica Nacional; Argentina. Comisión Nacional de Energía Atómica; ArgentinaFil: Minsky, Daniel Mauricio. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Comisión Nacional de Energía Atómica; ArgentinaFil: Grosges, Thomas. Universite de Technologie de Troyes; FranciaUniversidad Nacional de La Plata. Facultad de Informática2021-04info:eu-repo/semantics/articleinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_6501info:ar-repo/semantics/articuloapplication/pdfapplication/pdfhttp://hdl.handle.net/11336/165254Rodríguez Colmeiro, Ramiro Germán; Verrastro, Claudio Abel; Minsky, Daniel Mauricio; Grosges, Thomas; Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks; Universidad Nacional de La Plata. Facultad de Informática; Journal of Computer Science and Technology; 21; 1; 4-2021; 29-411666-60461666-6038CONICET DigitalCONICETspainfo:eu-repo/semantics/altIdentifier/url/https://journal.info.unlp.edu.ar/JCST/article/view/1519info:eu-repo/semantics/altIdentifier/doi/10.24215/16666038.21.E4info:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-nc/2.5/ar/reponame:CONICET Digital (CONICET)instname:Consejo Nacional de Investigaciones Científicas y Técnicas2025-09-03T10:03:38Zoai:ri.conicet.gov.ar:11336/165254instacron:CONICETInstitucionalhttp://ri.conicet.gov.ar/Organismo científico-tecnológicoNo correspondehttp://ri.conicet.gov.ar/oai/requestdasensio@conicet.gov.ar; lcarlino@conicet.gov.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:34982025-09-03 10:03:38.894CONICET Digital (CONICET) - Consejo Nacional de Investigaciones Científicas y Técnicasfalse |
dc.title.none.fl_str_mv |
Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks Hacia la sinterización de mapas de atenuación de cuerpo completo para tomografía por emisión de positrones de [18F] FDG usando redes neuronales profundas |
title |
Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks |
spellingShingle |
Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks Rodríguez Colmeiro, Ramiro Germán ATTENUATION CORRECTION DEEP LEARNING GENERATIVE MODELS POSITRON EMISSION TOMOGRAPHY |
title_short |
Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks |
title_full |
Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks |
title_fullStr |
Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks |
title_full_unstemmed |
Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks |
title_sort |
Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks |
dc.creator.none.fl_str_mv |
Rodríguez Colmeiro, Ramiro Germán Verrastro, Claudio Abel Minsky, Daniel Mauricio Grosges, Thomas |
author |
Rodríguez Colmeiro, Ramiro Germán |
author_facet |
Rodríguez Colmeiro, Ramiro Germán Verrastro, Claudio Abel Minsky, Daniel Mauricio Grosges, Thomas |
author_role |
author |
author2 |
Verrastro, Claudio Abel Minsky, Daniel Mauricio Grosges, Thomas |
author2_role |
author author author |
dc.subject.none.fl_str_mv |
ATTENUATION CORRECTION DEEP LEARNING GENERATIVE MODELS POSITRON EMISSION TOMOGRAPHY |
topic |
ATTENUATION CORRECTION DEEP LEARNING GENERATIVE MODELS POSITRON EMISSION TOMOGRAPHY |
purl_subject.fl_str_mv |
https://purl.org/becyt/ford/2.2 https://purl.org/becyt/ford/2 |
dc.description.none.fl_txt_mv |
The correction of attenuation effects in Positron Emission Tomography (PET) imaging is fundamental to ob-tain a correct radiotracer distribution. However direct measurement of this attenuation map is not error-free and normally results in additional ionization radiation dose to the patient. Here, we explore the task of whole body attenuation map generation using 3D deep neural networks. We analyze the advantages that an adversarial training can provide to such models. The networks are trained to learn the mapping from non attenuation corrected [18F]-fluorodeoxyglucose PET images to a synthetic Computerized Tomography (sCT) and also to label the input voxel tissue. Then the sCT image is further refined using an adversarial training scheme to recover higher frequency details and lost structures using context information. This work is trained and tested on public available datasets, containing several PET images from different scanners with different ra-diotracer administration and reconstruction modalities. The network is trained with 108 samples and validated on 10 samples. The sCT generation was tested on 133 samples from 8 distinct datasets. The resulting mean absolute error of the tested networks is 96 ± 20 HU and 103 ± 18 HU with a peak signal to noise ratio of 19.3 ± 1.7 dB and 18.6 ± 1.5 dB, for the base model and adversarial model respectively. The attenuation correction is tested by means of attenuation sinograms, obtaining a line of response attenuation mean error lower than 1% with a standard deviation lower than 8%. The proposed deep learning topologies are capable of generating whole body attenuation maps from uncorrected PET image data. Moreover, the accuracy of both methods holds in the presence of data from multiple sources and modalities and are trained on publicly available datasets. Finally, while the adversarial layer enhances visual appearance of the produced samples, the 3D U-Net achieves higher metric performance. La corrección de los efectos de la atenuación en las imágenes de Tomografía por Emisión de Positrones (PET) es fundamental para obtener la correcta distribución del radio trazador. Sin embargo la medición directa del mapa de atenuación no esta libre de errores y normalmente resulta en la absorción de una dosis superior de radiación ionizante por parte del paciente. Aquí, exploramos la tarea de la generación del mapa de atenuación de cuerpo completo usando redes neuronales profundas 3D. Se analizan las ventajas que un entrenamiento adversario puede proveer a estos modelos. Las redes son entrenadas para aprender la conversión desde una imagen de [18F]- fluorodeoxyglucosa PET sin corrección de atenuación a una imagen sintética de Tomografía Computada (sCT) y además obtener una etiqueta del tipo de tejido ´ en los voxeles de la imagen. Luego la imagen de sCT es refinada usando un entrenamiento de tipo adversario para recobrar detalles de alta frecuencia y estructuras perdidas usando información contextual. Este trabajo es entrenado y probado sobre conjuntos de datos públicos, conteniendo distintas imágenes PET de diferentes tomógrafos, distintos modos de administración de dosis y modos de reconstrucción. La red es entrenada con 108 muestras y validada con 10 muestras. La generación del sCT fue probada con ´ 133 muestras de 8 conjuntos de datos independientes. El error medio absoluto de las redes es de 96±20 HU y 103±18 HU con una relación señal ruido pico de ˜ 103 ± 18 HU y 18.6±1.5 dB para el modelo base y el modelo adversario respectivamente. La corrección de atenuación es probada por medio de sinogramas, obteniendo un error medio en la atenuación de las líneas de respuesta menor al 1% con un desvió estándar menor al 8%. Las topologías de aprendizaje profundo propuestas son capaces de generar mapas de atenuación de cuerpo completo a partir de imágenes PET sin corregir. Además, la exactitud de los métodos se sostiene en presencia de datos de múltiples fuentes y modalidades y son entrenadas en conjuntos de datos públicos. Finalmente, mientras se observa que el entrenamiento adversario mejora la apariencia visual de los mapas generados, la topologa 3D U-Net obtiene mejor rendimiento en las métricas. Fil: Rodríguez Colmeiro, Ramiro Germán. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Universite de Technologie de Troyes; Francia. Universidad Tecnológica Nacional; Argentina. Comisión Nacional de Energía Atómica; Argentina Fil: Verrastro, Claudio Abel. Universidad Tecnológica Nacional; Argentina. Comisión Nacional de Energía Atómica; Argentina Fil: Minsky, Daniel Mauricio. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina. Comisión Nacional de Energía Atómica; Argentina Fil: Grosges, Thomas. Universite de Technologie de Troyes; Francia |
description |
The correction of attenuation effects in Positron Emission Tomography (PET) imaging is fundamental to ob-tain a correct radiotracer distribution. However direct measurement of this attenuation map is not error-free and normally results in additional ionization radiation dose to the patient. Here, we explore the task of whole body attenuation map generation using 3D deep neural networks. We analyze the advantages that an adversarial training can provide to such models. The networks are trained to learn the mapping from non attenuation corrected [18F]-fluorodeoxyglucose PET images to a synthetic Computerized Tomography (sCT) and also to label the input voxel tissue. Then the sCT image is further refined using an adversarial training scheme to recover higher frequency details and lost structures using context information. This work is trained and tested on public available datasets, containing several PET images from different scanners with different ra-diotracer administration and reconstruction modalities. The network is trained with 108 samples and validated on 10 samples. The sCT generation was tested on 133 samples from 8 distinct datasets. The resulting mean absolute error of the tested networks is 96 ± 20 HU and 103 ± 18 HU with a peak signal to noise ratio of 19.3 ± 1.7 dB and 18.6 ± 1.5 dB, for the base model and adversarial model respectively. The attenuation correction is tested by means of attenuation sinograms, obtaining a line of response attenuation mean error lower than 1% with a standard deviation lower than 8%. The proposed deep learning topologies are capable of generating whole body attenuation maps from uncorrected PET image data. Moreover, the accuracy of both methods holds in the presence of data from multiple sources and modalities and are trained on publicly available datasets. Finally, while the adversarial layer enhances visual appearance of the produced samples, the 3D U-Net achieves higher metric performance. |
publishDate |
2021 |
dc.date.none.fl_str_mv |
2021-04 |
dc.type.none.fl_str_mv |
info:eu-repo/semantics/article info:eu-repo/semantics/publishedVersion http://purl.org/coar/resource_type/c_6501 info:ar-repo/semantics/articulo |
format |
article |
status_str |
publishedVersion |
dc.identifier.none.fl_str_mv |
http://hdl.handle.net/11336/165254 Rodríguez Colmeiro, Ramiro Germán; Verrastro, Claudio Abel; Minsky, Daniel Mauricio; Grosges, Thomas; Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks; Universidad Nacional de La Plata. Facultad de Informática; Journal of Computer Science and Technology; 21; 1; 4-2021; 29-41 1666-6046 1666-6038 CONICET Digital CONICET |
url |
http://hdl.handle.net/11336/165254 |
identifier_str_mv |
Rodríguez Colmeiro, Ramiro Germán; Verrastro, Claudio Abel; Minsky, Daniel Mauricio; Grosges, Thomas; Towards a whole body [18F] FDG positron emission tomography attenuation correction map synthesizing using deep neural networks; Universidad Nacional de La Plata. Facultad de Informática; Journal of Computer Science and Technology; 21; 1; 4-2021; 29-41 1666-6046 1666-6038 CONICET Digital CONICET |
dc.language.none.fl_str_mv |
spa |
language |
spa |
dc.relation.none.fl_str_mv |
info:eu-repo/semantics/altIdentifier/url/https://journal.info.unlp.edu.ar/JCST/article/view/1519 info:eu-repo/semantics/altIdentifier/doi/10.24215/16666038.21.E4 |
dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess https://creativecommons.org/licenses/by-nc/2.5/ar/ |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
https://creativecommons.org/licenses/by-nc/2.5/ar/ |
dc.format.none.fl_str_mv |
application/pdf application/pdf |
dc.publisher.none.fl_str_mv |
Universidad Nacional de La Plata. Facultad de Informática |
publisher.none.fl_str_mv |
Universidad Nacional de La Plata. Facultad de Informática |
dc.source.none.fl_str_mv |
reponame:CONICET Digital (CONICET) instname:Consejo Nacional de Investigaciones Científicas y Técnicas |
reponame_str |
CONICET Digital (CONICET) |
collection |
CONICET Digital (CONICET) |
instname_str |
Consejo Nacional de Investigaciones Científicas y Técnicas |
repository.name.fl_str_mv |
CONICET Digital (CONICET) - Consejo Nacional de Investigaciones Científicas y Técnicas |
repository.mail.fl_str_mv |
dasensio@conicet.gov.ar; lcarlino@conicet.gov.ar |
_version_ |
1842269811889930240 |
score |
13.13397 |