Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas

Autores
Rodríguez, Nicolás Daniel
Año de publicación
2025
Idioma
español castellano
Tipo de recurso
tesis doctoral
Estado
versión aceptada
Colaborador/a o director/a de tesis
Julián, Pedro
Paolini, Eduardo
Descripción
Esta tesis se enfoca en el desarrollo e implementación de aceleradores en circuitos integrados de uso específico (ASIC) para la ejecución eficiente de Redes Neuronales Profundas (DNN). Estas redes se caracterizan por involucrar una gran cantidad de datos, tanto de parámetros como de entradas, por lo que resulta imprescindible no solo un cómputo energéticamente eficiente, sino también un balance óptimo entre la transferencia de datos y el procesamiento. Para ello, en este trabajo se propone un algoritmo Simplicial Simétrico a Canales Separados (ChSymSim), que produce implementaciones de bajo consumo, y se optimiza una arquitectura que permite so portar la ejecución de distintos tipos de capas (diversas configuraciones de precisión, kernel, stride y padding) manteniendo la eficiencia energética. Para poner en evidencia el impacto de la implementación, se realizaron dos prototipos preliminares con estructuras de prueba y evaluación (I/O de datos, buses, configuración, control) y se culminó con la fabricación de un sistema en chip (SoC) complejo de 9mm2 en una tecnología de 65nm. Adicionalmente, se desarrollaron técnicas de entrenamiento con cuantización (QAT), optimizadas para funciones Simpliciales Simétricas en punto fijo. Los experimentos realizados mostraron una eficiencia energética elevada, alcanzando valores promedios superiores a los 4 TOPS/W bajo diversas configuraciones, con un máximo de 12,12 TOPS/W. Estos resultados permiten asegurar que el acelerador ChSymSim propuesto es una solución viable para el procesamiento eficiente de algoritmos para aprendizaje de máquina (ML) en dispositivos embebidos de baja potencia.
This thesis focuses on the development and implementation of accelerators in application-specific integrated circuits (ASIC) for the efficient execution of Deep Neural Networks (DNN). These networks involve a large amount of data, both in terms of parameters and inputs, making it essential to achieve not only energy efficient processing but also an optimal balance between data transfer and compu tation. To this end, this work proposes a Channel-wise Symmetric Simplicial al gorithm (ChSymSim), which yields low-power implementations, and optimizes an architecture that supports the execution of different types of layers (various configu rations of precision, kernel, stride, and padding) while maintaining energy efficiency. To highlight the impact of the implementation, two preliminary prototypes were developed with testing and evaluation structures (data I/O, buses, configuration, control), culminating in the fabrication of a complex system-on-chip (SoC), with an area of 9mm2 in a 65nm technology. Additionally, quantization-aware training (QAT) techniques were developed, optimized for Symmetric Simplicial functions in fixed-point arithmetic. The experiments conducted showed high energy efficiency, achieving average va lues above 4 TOPS/W under various configurations, with a maximum of 12,12 TOP S/W. These results confirm that the proposed ChSymSim accelerator is a viable so lution for the efficient processing of machine learning (ML) algorithms in low-power embedded devices.
Fil: Rodríguez, Nicolás Daniel. Universidad Nacional del Sur. Departamento de Ingeniería Eléctrica y de Computadoras; Argentina
Materia
Ingeniería
Circuitos neuronales profundas
Redes neuronales profundas
Circuitos integrados eficientes
Sistema en chip
Algoritmo simplicial simétrico
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-sa/4.0/
Repositorio
Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS)
Institución
Universidad Nacional del Sur
OAI Identificador
oai:repositorio.bc.uns.edu.ar:123456789/7328

id RID-UNS_0c39215e6acb0acac1a05e6437d65d58
oai_identifier_str oai:repositorio.bc.uns.edu.ar:123456789/7328
network_acronym_str RID-UNS
repository_id_str
network_name_str Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS)
spelling Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundasRodríguez, Nicolás DanielIngenieríaCircuitos neuronales profundasRedes neuronales profundasCircuitos integrados eficientesSistema en chipAlgoritmo simplicial simétricoEsta tesis se enfoca en el desarrollo e implementación de aceleradores en circuitos integrados de uso específico (ASIC) para la ejecución eficiente de Redes Neuronales Profundas (DNN). Estas redes se caracterizan por involucrar una gran cantidad de datos, tanto de parámetros como de entradas, por lo que resulta imprescindible no solo un cómputo energéticamente eficiente, sino también un balance óptimo entre la transferencia de datos y el procesamiento. Para ello, en este trabajo se propone un algoritmo Simplicial Simétrico a Canales Separados (ChSymSim), que produce implementaciones de bajo consumo, y se optimiza una arquitectura que permite so portar la ejecución de distintos tipos de capas (diversas configuraciones de precisión, kernel, stride y padding) manteniendo la eficiencia energética. Para poner en evidencia el impacto de la implementación, se realizaron dos prototipos preliminares con estructuras de prueba y evaluación (I/O de datos, buses, configuración, control) y se culminó con la fabricación de un sistema en chip (SoC) complejo de 9mm2 en una tecnología de 65nm. Adicionalmente, se desarrollaron técnicas de entrenamiento con cuantización (QAT), optimizadas para funciones Simpliciales Simétricas en punto fijo. Los experimentos realizados mostraron una eficiencia energética elevada, alcanzando valores promedios superiores a los 4 TOPS/W bajo diversas configuraciones, con un máximo de 12,12 TOPS/W. Estos resultados permiten asegurar que el acelerador ChSymSim propuesto es una solución viable para el procesamiento eficiente de algoritmos para aprendizaje de máquina (ML) en dispositivos embebidos de baja potencia.This thesis focuses on the development and implementation of accelerators in application-specific integrated circuits (ASIC) for the efficient execution of Deep Neural Networks (DNN). These networks involve a large amount of data, both in terms of parameters and inputs, making it essential to achieve not only energy efficient processing but also an optimal balance between data transfer and compu tation. To this end, this work proposes a Channel-wise Symmetric Simplicial al gorithm (ChSymSim), which yields low-power implementations, and optimizes an architecture that supports the execution of different types of layers (various configu rations of precision, kernel, stride, and padding) while maintaining energy efficiency. To highlight the impact of the implementation, two preliminary prototypes were developed with testing and evaluation structures (data I/O, buses, configuration, control), culminating in the fabrication of a complex system-on-chip (SoC), with an area of 9mm2 in a 65nm technology. Additionally, quantization-aware training (QAT) techniques were developed, optimized for Symmetric Simplicial functions in fixed-point arithmetic. The experiments conducted showed high energy efficiency, achieving average va lues above 4 TOPS/W under various configurations, with a maximum of 12,12 TOP S/W. These results confirm that the proposed ChSymSim accelerator is a viable so lution for the efficient processing of machine learning (ML) algorithms in low-power embedded devices.Fil: Rodríguez, Nicolás Daniel. Universidad Nacional del Sur. Departamento de Ingeniería Eléctrica y de Computadoras; ArgentinaJulián, PedroPaolini, Eduardo2025-03-05info:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_db06info:ar-repo/semantics/tesisDoctoralapplication/pdfhttps://repositoriodigital.uns.edu.ar/handle/123456789/7328spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-sa/4.0/reponame:Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS)instname:Universidad Nacional del Sur2025-10-23T11:16:32Zoai:repositorio.bc.uns.edu.ar:123456789/7328instacron:UNSInstitucionalhttp://repositoriodigital.uns.edu.ar/Universidad públicaNo correspondehttp://repositoriodigital.uns.edu.ar/oaimesnaola@uns.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:2025-10-23 11:16:32.383Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS) - Universidad Nacional del Surfalse
dc.title.none.fl_str_mv Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas
title Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas
spellingShingle Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas
Rodríguez, Nicolás Daniel
Ingeniería
Circuitos neuronales profundas
Redes neuronales profundas
Circuitos integrados eficientes
Sistema en chip
Algoritmo simplicial simétrico
title_short Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas
title_full Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas
title_fullStr Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas
title_full_unstemmed Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas
title_sort Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas
dc.creator.none.fl_str_mv Rodríguez, Nicolás Daniel
author Rodríguez, Nicolás Daniel
author_facet Rodríguez, Nicolás Daniel
author_role author
dc.contributor.none.fl_str_mv Julián, Pedro
Paolini, Eduardo
dc.subject.none.fl_str_mv Ingeniería
Circuitos neuronales profundas
Redes neuronales profundas
Circuitos integrados eficientes
Sistema en chip
Algoritmo simplicial simétrico
topic Ingeniería
Circuitos neuronales profundas
Redes neuronales profundas
Circuitos integrados eficientes
Sistema en chip
Algoritmo simplicial simétrico
dc.description.none.fl_txt_mv Esta tesis se enfoca en el desarrollo e implementación de aceleradores en circuitos integrados de uso específico (ASIC) para la ejecución eficiente de Redes Neuronales Profundas (DNN). Estas redes se caracterizan por involucrar una gran cantidad de datos, tanto de parámetros como de entradas, por lo que resulta imprescindible no solo un cómputo energéticamente eficiente, sino también un balance óptimo entre la transferencia de datos y el procesamiento. Para ello, en este trabajo se propone un algoritmo Simplicial Simétrico a Canales Separados (ChSymSim), que produce implementaciones de bajo consumo, y se optimiza una arquitectura que permite so portar la ejecución de distintos tipos de capas (diversas configuraciones de precisión, kernel, stride y padding) manteniendo la eficiencia energética. Para poner en evidencia el impacto de la implementación, se realizaron dos prototipos preliminares con estructuras de prueba y evaluación (I/O de datos, buses, configuración, control) y se culminó con la fabricación de un sistema en chip (SoC) complejo de 9mm2 en una tecnología de 65nm. Adicionalmente, se desarrollaron técnicas de entrenamiento con cuantización (QAT), optimizadas para funciones Simpliciales Simétricas en punto fijo. Los experimentos realizados mostraron una eficiencia energética elevada, alcanzando valores promedios superiores a los 4 TOPS/W bajo diversas configuraciones, con un máximo de 12,12 TOPS/W. Estos resultados permiten asegurar que el acelerador ChSymSim propuesto es una solución viable para el procesamiento eficiente de algoritmos para aprendizaje de máquina (ML) en dispositivos embebidos de baja potencia.
This thesis focuses on the development and implementation of accelerators in application-specific integrated circuits (ASIC) for the efficient execution of Deep Neural Networks (DNN). These networks involve a large amount of data, both in terms of parameters and inputs, making it essential to achieve not only energy efficient processing but also an optimal balance between data transfer and compu tation. To this end, this work proposes a Channel-wise Symmetric Simplicial al gorithm (ChSymSim), which yields low-power implementations, and optimizes an architecture that supports the execution of different types of layers (various configu rations of precision, kernel, stride, and padding) while maintaining energy efficiency. To highlight the impact of the implementation, two preliminary prototypes were developed with testing and evaluation structures (data I/O, buses, configuration, control), culminating in the fabrication of a complex system-on-chip (SoC), with an area of 9mm2 in a 65nm technology. Additionally, quantization-aware training (QAT) techniques were developed, optimized for Symmetric Simplicial functions in fixed-point arithmetic. The experiments conducted showed high energy efficiency, achieving average va lues above 4 TOPS/W under various configurations, with a maximum of 12,12 TOP S/W. These results confirm that the proposed ChSymSim accelerator is a viable so lution for the efficient processing of machine learning (ML) algorithms in low-power embedded devices.
Fil: Rodríguez, Nicolás Daniel. Universidad Nacional del Sur. Departamento de Ingeniería Eléctrica y de Computadoras; Argentina
description Esta tesis se enfoca en el desarrollo e implementación de aceleradores en circuitos integrados de uso específico (ASIC) para la ejecución eficiente de Redes Neuronales Profundas (DNN). Estas redes se caracterizan por involucrar una gran cantidad de datos, tanto de parámetros como de entradas, por lo que resulta imprescindible no solo un cómputo energéticamente eficiente, sino también un balance óptimo entre la transferencia de datos y el procesamiento. Para ello, en este trabajo se propone un algoritmo Simplicial Simétrico a Canales Separados (ChSymSim), que produce implementaciones de bajo consumo, y se optimiza una arquitectura que permite so portar la ejecución de distintos tipos de capas (diversas configuraciones de precisión, kernel, stride y padding) manteniendo la eficiencia energética. Para poner en evidencia el impacto de la implementación, se realizaron dos prototipos preliminares con estructuras de prueba y evaluación (I/O de datos, buses, configuración, control) y se culminó con la fabricación de un sistema en chip (SoC) complejo de 9mm2 en una tecnología de 65nm. Adicionalmente, se desarrollaron técnicas de entrenamiento con cuantización (QAT), optimizadas para funciones Simpliciales Simétricas en punto fijo. Los experimentos realizados mostraron una eficiencia energética elevada, alcanzando valores promedios superiores a los 4 TOPS/W bajo diversas configuraciones, con un máximo de 12,12 TOPS/W. Estos resultados permiten asegurar que el acelerador ChSymSim propuesto es una solución viable para el procesamiento eficiente de algoritmos para aprendizaje de máquina (ML) en dispositivos embebidos de baja potencia.
publishDate 2025
dc.date.none.fl_str_mv 2025-03-05
dc.type.none.fl_str_mv info:eu-repo/semantics/doctoralThesis
info:eu-repo/semantics/acceptedVersion
http://purl.org/coar/resource_type/c_db06
info:ar-repo/semantics/tesisDoctoral
format doctoralThesis
status_str acceptedVersion
dc.identifier.none.fl_str_mv https://repositoriodigital.uns.edu.ar/handle/123456789/7328
url https://repositoriodigital.uns.edu.ar/handle/123456789/7328
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-sa/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-sa/4.0/
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS)
instname:Universidad Nacional del Sur
reponame_str Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS)
collection Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS)
instname_str Universidad Nacional del Sur
repository.name.fl_str_mv Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS) - Universidad Nacional del Sur
repository.mail.fl_str_mv mesnaola@uns.edu.ar
_version_ 1846787476375470080
score 12.982451