Intermediate task fine-tuning in cancer classification
- Autores
- García, Mario Alejandro; Gramática, Martín Nicolás; Ricapito, Juan Pablo
- Año de publicación
- 2023
- Idioma
- inglés
- Tipo de recurso
- artículo
- Estado
- versión publicada
- Descripción
- Reducing the amount of annotated data required to train predictive models is one of the main challenges in applying artificial intelligence to histopathology. In this paper, we propose a method to enhance the performance of deep learning models trained with limited data in the field of digital pathology. The method relies on a two-stage transfer learning process, where an intermediate model serves as a bridge between a pretrained model on ImageNet and the final cancer classification model. The intermediate model is fine-tuned with a dataset of over 4,000,000 images weakly labeled with clinical data extracted from TCGA program. The model obtained through the proposed method significantly outperforms a model trained with a traditional transfer learning process.
Reducir la cantidad de datos etiquetados necesarios para entrenar modelos predictivos es uno de los principales desafíos para la aplicación de la inteligencia artificial en patología digital. En este trabajo se propone un método para mejorar la capacidad de predicción de redes neuronales profundas entrenadas con cantidades limitadas de imágenes de patología digital. El método es un proceso de transfer learning de dos etapas, donde se utiliza un modelo intermedio como puente entre un modelo preentrenado con ImageNet y un modelo final de clasificación de cáncer. El modelo intermedio es ajustado con un dataset de más de 4.000.000 de imágenes débilmente etiquetadas con datos clínicos extraídos del programa TCGA. El modelo obtenido a través del método propuesto mejora significativamente los resultados de un modelo ajustado con el proceso tradicional de transfer learning.
Facultad de Informática - Materia
-
Ciencias Informáticas
deep learning
digital pathology
intermediate task fine-tuning
histopathology
transfer learning
ajuste fino con tarea intermedia
aprendizaje profundo
histopatología
patología digital
Transferencia de conocimientos - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- http://creativecommons.org/licenses/by-nc/4.0/
- Repositorio
.jpg)
- Institución
- Universidad Nacional de La Plata
- OAI Identificador
- oai:sedici.unlp.edu.ar:10915/160074
Ver los metadatos del registro completo
| id |
SEDICI_6b9ffa590afb2f14dbc3ec3dbdf8d4da |
|---|---|
| oai_identifier_str |
oai:sedici.unlp.edu.ar:10915/160074 |
| network_acronym_str |
SEDICI |
| repository_id_str |
1329 |
| network_name_str |
SEDICI (UNLP) |
| spelling |
Intermediate task fine-tuning in cancer classificationClasificación de cancer mediante transferencia de conocimiento con tarea intermediaGarcía, Mario AlejandroGramática, Martín NicolásRicapito, Juan PabloCiencias Informáticasdeep learningdigital pathologyintermediate task fine-tuninghistopathologytransfer learningajuste fino con tarea intermediaaprendizaje profundohistopatologíapatología digitalTransferencia de conocimientosReducing the amount of annotated data required to train predictive models is one of the main challenges in applying artificial intelligence to histopathology. In this paper, we propose a method to enhance the performance of deep learning models trained with limited data in the field of digital pathology. The method relies on a two-stage transfer learning process, where an intermediate model serves as a bridge between a pretrained model on ImageNet and the final cancer classification model. The intermediate model is fine-tuned with a dataset of over 4,000,000 images weakly labeled with clinical data extracted from TCGA program. The model obtained through the proposed method significantly outperforms a model trained with a traditional transfer learning process.Reducir la cantidad de datos etiquetados necesarios para entrenar modelos predictivos es uno de los principales desafíos para la aplicación de la inteligencia artificial en patología digital. En este trabajo se propone un método para mejorar la capacidad de predicción de redes neuronales profundas entrenadas con cantidades limitadas de imágenes de patología digital. El método es un proceso de transfer learning de dos etapas, donde se utiliza un modelo intermedio como puente entre un modelo preentrenado con ImageNet y un modelo final de clasificación de cáncer. El modelo intermedio es ajustado con un dataset de más de 4.000.000 de imágenes débilmente etiquetadas con datos clínicos extraídos del programa TCGA. El modelo obtenido a través del método propuesto mejora significativamente los resultados de un modelo ajustado con el proceso tradicional de transfer learning.Facultad de Informática2023-10info:eu-repo/semantics/articleinfo:eu-repo/semantics/publishedVersionArticulohttp://purl.org/coar/resource_type/c_6501info:ar-repo/semantics/articuloapplication/pdf135-144http://sedici.unlp.edu.ar/handle/10915/160074enginfo:eu-repo/semantics/altIdentifier/issn/1666-6038info:eu-repo/semantics/altIdentifier/doi/10.24215/16666038.23.e12info:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc/4.0/Creative Commons Attribution-NonCommercial 4.0 International (CC BY-NC 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2026-03-31T12:30:39Zoai:sedici.unlp.edu.ar:10915/160074Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292026-03-31 12:30:39.274SEDICI (UNLP) - Universidad Nacional de La Platafalse |
| dc.title.none.fl_str_mv |
Intermediate task fine-tuning in cancer classification Clasificación de cancer mediante transferencia de conocimiento con tarea intermedia |
| title |
Intermediate task fine-tuning in cancer classification |
| spellingShingle |
Intermediate task fine-tuning in cancer classification García, Mario Alejandro Ciencias Informáticas deep learning digital pathology intermediate task fine-tuning histopathology transfer learning ajuste fino con tarea intermedia aprendizaje profundo histopatología patología digital Transferencia de conocimientos |
| title_short |
Intermediate task fine-tuning in cancer classification |
| title_full |
Intermediate task fine-tuning in cancer classification |
| title_fullStr |
Intermediate task fine-tuning in cancer classification |
| title_full_unstemmed |
Intermediate task fine-tuning in cancer classification |
| title_sort |
Intermediate task fine-tuning in cancer classification |
| dc.creator.none.fl_str_mv |
García, Mario Alejandro Gramática, Martín Nicolás Ricapito, Juan Pablo |
| author |
García, Mario Alejandro |
| author_facet |
García, Mario Alejandro Gramática, Martín Nicolás Ricapito, Juan Pablo |
| author_role |
author |
| author2 |
Gramática, Martín Nicolás Ricapito, Juan Pablo |
| author2_role |
author author |
| dc.subject.none.fl_str_mv |
Ciencias Informáticas deep learning digital pathology intermediate task fine-tuning histopathology transfer learning ajuste fino con tarea intermedia aprendizaje profundo histopatología patología digital Transferencia de conocimientos |
| topic |
Ciencias Informáticas deep learning digital pathology intermediate task fine-tuning histopathology transfer learning ajuste fino con tarea intermedia aprendizaje profundo histopatología patología digital Transferencia de conocimientos |
| dc.description.none.fl_txt_mv |
Reducing the amount of annotated data required to train predictive models is one of the main challenges in applying artificial intelligence to histopathology. In this paper, we propose a method to enhance the performance of deep learning models trained with limited data in the field of digital pathology. The method relies on a two-stage transfer learning process, where an intermediate model serves as a bridge between a pretrained model on ImageNet and the final cancer classification model. The intermediate model is fine-tuned with a dataset of over 4,000,000 images weakly labeled with clinical data extracted from TCGA program. The model obtained through the proposed method significantly outperforms a model trained with a traditional transfer learning process. Reducir la cantidad de datos etiquetados necesarios para entrenar modelos predictivos es uno de los principales desafíos para la aplicación de la inteligencia artificial en patología digital. En este trabajo se propone un método para mejorar la capacidad de predicción de redes neuronales profundas entrenadas con cantidades limitadas de imágenes de patología digital. El método es un proceso de transfer learning de dos etapas, donde se utiliza un modelo intermedio como puente entre un modelo preentrenado con ImageNet y un modelo final de clasificación de cáncer. El modelo intermedio es ajustado con un dataset de más de 4.000.000 de imágenes débilmente etiquetadas con datos clínicos extraídos del programa TCGA. El modelo obtenido a través del método propuesto mejora significativamente los resultados de un modelo ajustado con el proceso tradicional de transfer learning. Facultad de Informática |
| description |
Reducing the amount of annotated data required to train predictive models is one of the main challenges in applying artificial intelligence to histopathology. In this paper, we propose a method to enhance the performance of deep learning models trained with limited data in the field of digital pathology. The method relies on a two-stage transfer learning process, where an intermediate model serves as a bridge between a pretrained model on ImageNet and the final cancer classification model. The intermediate model is fine-tuned with a dataset of over 4,000,000 images weakly labeled with clinical data extracted from TCGA program. The model obtained through the proposed method significantly outperforms a model trained with a traditional transfer learning process. |
| publishDate |
2023 |
| dc.date.none.fl_str_mv |
2023-10 |
| dc.type.none.fl_str_mv |
info:eu-repo/semantics/article info:eu-repo/semantics/publishedVersion Articulo http://purl.org/coar/resource_type/c_6501 info:ar-repo/semantics/articulo |
| format |
article |
| status_str |
publishedVersion |
| dc.identifier.none.fl_str_mv |
http://sedici.unlp.edu.ar/handle/10915/160074 |
| url |
http://sedici.unlp.edu.ar/handle/10915/160074 |
| dc.language.none.fl_str_mv |
eng |
| language |
eng |
| dc.relation.none.fl_str_mv |
info:eu-repo/semantics/altIdentifier/issn/1666-6038 info:eu-repo/semantics/altIdentifier/doi/10.24215/16666038.23.e12 |
| dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess http://creativecommons.org/licenses/by-nc/4.0/ Creative Commons Attribution-NonCommercial 4.0 International (CC BY-NC 4.0) |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc/4.0/ Creative Commons Attribution-NonCommercial 4.0 International (CC BY-NC 4.0) |
| dc.format.none.fl_str_mv |
application/pdf 135-144 |
| dc.source.none.fl_str_mv |
reponame:SEDICI (UNLP) instname:Universidad Nacional de La Plata instacron:UNLP |
| reponame_str |
SEDICI (UNLP) |
| collection |
SEDICI (UNLP) |
| instname_str |
Universidad Nacional de La Plata |
| instacron_str |
UNLP |
| institution |
UNLP |
| repository.name.fl_str_mv |
SEDICI (UNLP) - Universidad Nacional de La Plata |
| repository.mail.fl_str_mv |
alira@sedici.unlp.edu.ar |
| _version_ |
1861199667713277952 |
| score |
13.332987 |