Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas
- Autores
- Rodríguez, Nicolás Daniel
- Año de publicación
- 2025
- Idioma
- español castellano
- Tipo de recurso
- tesis doctoral
- Estado
- versión aceptada
- Colaborador/a o director/a de tesis
- Julián, Pedro
Paolini, Eduardo - Descripción
- Esta tesis se enfoca en el desarrollo e implementación de aceleradores en circuitos integrados de uso específico (ASIC) para la ejecución eficiente de Redes Neuronales Profundas (DNN). Estas redes se caracterizan por involucrar una gran cantidad de datos, tanto de parámetros como de entradas, por lo que resulta imprescindible no solo un cómputo energéticamente eficiente, sino también un balance óptimo entre la transferencia de datos y el procesamiento. Para ello, en este trabajo se propone un algoritmo Simplicial Simétrico a Canales Separados (ChSymSim), que produce implementaciones de bajo consumo, y se optimiza una arquitectura que permite so portar la ejecución de distintos tipos de capas (diversas configuraciones de precisión, kernel, stride y padding) manteniendo la eficiencia energética. Para poner en evidencia el impacto de la implementación, se realizaron dos prototipos preliminares con estructuras de prueba y evaluación (I/O de datos, buses, configuración, control) y se culminó con la fabricación de un sistema en chip (SoC) complejo de 9mm2 en una tecnología de 65nm. Adicionalmente, se desarrollaron técnicas de entrenamiento con cuantización (QAT), optimizadas para funciones Simpliciales Simétricas en punto fijo. Los experimentos realizados mostraron una eficiencia energética elevada, alcanzando valores promedios superiores a los 4 TOPS/W bajo diversas configuraciones, con un máximo de 12,12 TOPS/W. Estos resultados permiten asegurar que el acelerador ChSymSim propuesto es una solución viable para el procesamiento eficiente de algoritmos para aprendizaje de máquina (ML) en dispositivos embebidos de baja potencia.
This thesis focuses on the development and implementation of accelerators in application-specific integrated circuits (ASIC) for the efficient execution of Deep Neural Networks (DNN). These networks involve a large amount of data, both in terms of parameters and inputs, making it essential to achieve not only energy efficient processing but also an optimal balance between data transfer and compu tation. To this end, this work proposes a Channel-wise Symmetric Simplicial al gorithm (ChSymSim), which yields low-power implementations, and optimizes an architecture that supports the execution of different types of layers (various configu rations of precision, kernel, stride, and padding) while maintaining energy efficiency. To highlight the impact of the implementation, two preliminary prototypes were developed with testing and evaluation structures (data I/O, buses, configuration, control), culminating in the fabrication of a complex system-on-chip (SoC), with an area of 9mm2 in a 65nm technology. Additionally, quantization-aware training (QAT) techniques were developed, optimized for Symmetric Simplicial functions in fixed-point arithmetic. The experiments conducted showed high energy efficiency, achieving average va lues above 4 TOPS/W under various configurations, with a maximum of 12,12 TOP S/W. These results confirm that the proposed ChSymSim accelerator is a viable so lution for the efficient processing of machine learning (ML) algorithms in low-power embedded devices.
Fil: Rodríguez, Nicolás Daniel. Universidad Nacional del Sur. Departamento de Ingeniería Eléctrica y de Computadoras; Argentina - Materia
-
Ingeniería
Circuitos neuronales profundas
Redes neuronales profundas
Circuitos integrados eficientes
Sistema en chip
Algoritmo simplicial simétrico - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- http://creativecommons.org/licenses/by-sa/4.0/
- Repositorio
.jpg)
- Institución
- Universidad Nacional del Sur
- OAI Identificador
- oai:repositorio.bc.uns.edu.ar:123456789/7328
Ver los metadatos del registro completo
| id |
RID-UNS_0c39215e6acb0acac1a05e6437d65d58 |
|---|---|
| oai_identifier_str |
oai:repositorio.bc.uns.edu.ar:123456789/7328 |
| network_acronym_str |
RID-UNS |
| repository_id_str |
|
| network_name_str |
Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS) |
| spelling |
Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundasRodríguez, Nicolás DanielIngenieríaCircuitos neuronales profundasRedes neuronales profundasCircuitos integrados eficientesSistema en chipAlgoritmo simplicial simétricoEsta tesis se enfoca en el desarrollo e implementación de aceleradores en circuitos integrados de uso específico (ASIC) para la ejecución eficiente de Redes Neuronales Profundas (DNN). Estas redes se caracterizan por involucrar una gran cantidad de datos, tanto de parámetros como de entradas, por lo que resulta imprescindible no solo un cómputo energéticamente eficiente, sino también un balance óptimo entre la transferencia de datos y el procesamiento. Para ello, en este trabajo se propone un algoritmo Simplicial Simétrico a Canales Separados (ChSymSim), que produce implementaciones de bajo consumo, y se optimiza una arquitectura que permite so portar la ejecución de distintos tipos de capas (diversas configuraciones de precisión, kernel, stride y padding) manteniendo la eficiencia energética. Para poner en evidencia el impacto de la implementación, se realizaron dos prototipos preliminares con estructuras de prueba y evaluación (I/O de datos, buses, configuración, control) y se culminó con la fabricación de un sistema en chip (SoC) complejo de 9mm2 en una tecnología de 65nm. Adicionalmente, se desarrollaron técnicas de entrenamiento con cuantización (QAT), optimizadas para funciones Simpliciales Simétricas en punto fijo. Los experimentos realizados mostraron una eficiencia energética elevada, alcanzando valores promedios superiores a los 4 TOPS/W bajo diversas configuraciones, con un máximo de 12,12 TOPS/W. Estos resultados permiten asegurar que el acelerador ChSymSim propuesto es una solución viable para el procesamiento eficiente de algoritmos para aprendizaje de máquina (ML) en dispositivos embebidos de baja potencia.This thesis focuses on the development and implementation of accelerators in application-specific integrated circuits (ASIC) for the efficient execution of Deep Neural Networks (DNN). These networks involve a large amount of data, both in terms of parameters and inputs, making it essential to achieve not only energy efficient processing but also an optimal balance between data transfer and compu tation. To this end, this work proposes a Channel-wise Symmetric Simplicial al gorithm (ChSymSim), which yields low-power implementations, and optimizes an architecture that supports the execution of different types of layers (various configu rations of precision, kernel, stride, and padding) while maintaining energy efficiency. To highlight the impact of the implementation, two preliminary prototypes were developed with testing and evaluation structures (data I/O, buses, configuration, control), culminating in the fabrication of a complex system-on-chip (SoC), with an area of 9mm2 in a 65nm technology. Additionally, quantization-aware training (QAT) techniques were developed, optimized for Symmetric Simplicial functions in fixed-point arithmetic. The experiments conducted showed high energy efficiency, achieving average va lues above 4 TOPS/W under various configurations, with a maximum of 12,12 TOP S/W. These results confirm that the proposed ChSymSim accelerator is a viable so lution for the efficient processing of machine learning (ML) algorithms in low-power embedded devices.Fil: Rodríguez, Nicolás Daniel. Universidad Nacional del Sur. Departamento de Ingeniería Eléctrica y de Computadoras; ArgentinaJulián, PedroPaolini, Eduardo2025-03-05info:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/acceptedVersionhttp://purl.org/coar/resource_type/c_db06info:ar-repo/semantics/tesisDoctoralapplication/pdfhttps://repositoriodigital.uns.edu.ar/handle/123456789/7328spainfo:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-sa/4.0/reponame:Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS)instname:Universidad Nacional del Sur2025-10-23T11:16:32Zoai:repositorio.bc.uns.edu.ar:123456789/7328instacron:UNSInstitucionalhttp://repositoriodigital.uns.edu.ar/Universidad públicaNo correspondehttp://repositoriodigital.uns.edu.ar/oaimesnaola@uns.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:2025-10-23 11:16:32.383Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS) - Universidad Nacional del Surfalse |
| dc.title.none.fl_str_mv |
Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas |
| title |
Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas |
| spellingShingle |
Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas Rodríguez, Nicolás Daniel Ingeniería Circuitos neuronales profundas Redes neuronales profundas Circuitos integrados eficientes Sistema en chip Algoritmo simplicial simétrico |
| title_short |
Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas |
| title_full |
Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas |
| title_fullStr |
Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas |
| title_full_unstemmed |
Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas |
| title_sort |
Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas |
| dc.creator.none.fl_str_mv |
Rodríguez, Nicolás Daniel |
| author |
Rodríguez, Nicolás Daniel |
| author_facet |
Rodríguez, Nicolás Daniel |
| author_role |
author |
| dc.contributor.none.fl_str_mv |
Julián, Pedro Paolini, Eduardo |
| dc.subject.none.fl_str_mv |
Ingeniería Circuitos neuronales profundas Redes neuronales profundas Circuitos integrados eficientes Sistema en chip Algoritmo simplicial simétrico |
| topic |
Ingeniería Circuitos neuronales profundas Redes neuronales profundas Circuitos integrados eficientes Sistema en chip Algoritmo simplicial simétrico |
| dc.description.none.fl_txt_mv |
Esta tesis se enfoca en el desarrollo e implementación de aceleradores en circuitos integrados de uso específico (ASIC) para la ejecución eficiente de Redes Neuronales Profundas (DNN). Estas redes se caracterizan por involucrar una gran cantidad de datos, tanto de parámetros como de entradas, por lo que resulta imprescindible no solo un cómputo energéticamente eficiente, sino también un balance óptimo entre la transferencia de datos y el procesamiento. Para ello, en este trabajo se propone un algoritmo Simplicial Simétrico a Canales Separados (ChSymSim), que produce implementaciones de bajo consumo, y se optimiza una arquitectura que permite so portar la ejecución de distintos tipos de capas (diversas configuraciones de precisión, kernel, stride y padding) manteniendo la eficiencia energética. Para poner en evidencia el impacto de la implementación, se realizaron dos prototipos preliminares con estructuras de prueba y evaluación (I/O de datos, buses, configuración, control) y se culminó con la fabricación de un sistema en chip (SoC) complejo de 9mm2 en una tecnología de 65nm. Adicionalmente, se desarrollaron técnicas de entrenamiento con cuantización (QAT), optimizadas para funciones Simpliciales Simétricas en punto fijo. Los experimentos realizados mostraron una eficiencia energética elevada, alcanzando valores promedios superiores a los 4 TOPS/W bajo diversas configuraciones, con un máximo de 12,12 TOPS/W. Estos resultados permiten asegurar que el acelerador ChSymSim propuesto es una solución viable para el procesamiento eficiente de algoritmos para aprendizaje de máquina (ML) en dispositivos embebidos de baja potencia. This thesis focuses on the development and implementation of accelerators in application-specific integrated circuits (ASIC) for the efficient execution of Deep Neural Networks (DNN). These networks involve a large amount of data, both in terms of parameters and inputs, making it essential to achieve not only energy efficient processing but also an optimal balance between data transfer and compu tation. To this end, this work proposes a Channel-wise Symmetric Simplicial al gorithm (ChSymSim), which yields low-power implementations, and optimizes an architecture that supports the execution of different types of layers (various configu rations of precision, kernel, stride, and padding) while maintaining energy efficiency. To highlight the impact of the implementation, two preliminary prototypes were developed with testing and evaluation structures (data I/O, buses, configuration, control), culminating in the fabrication of a complex system-on-chip (SoC), with an area of 9mm2 in a 65nm technology. Additionally, quantization-aware training (QAT) techniques were developed, optimized for Symmetric Simplicial functions in fixed-point arithmetic. The experiments conducted showed high energy efficiency, achieving average va lues above 4 TOPS/W under various configurations, with a maximum of 12,12 TOP S/W. These results confirm that the proposed ChSymSim accelerator is a viable so lution for the efficient processing of machine learning (ML) algorithms in low-power embedded devices. Fil: Rodríguez, Nicolás Daniel. Universidad Nacional del Sur. Departamento de Ingeniería Eléctrica y de Computadoras; Argentina |
| description |
Esta tesis se enfoca en el desarrollo e implementación de aceleradores en circuitos integrados de uso específico (ASIC) para la ejecución eficiente de Redes Neuronales Profundas (DNN). Estas redes se caracterizan por involucrar una gran cantidad de datos, tanto de parámetros como de entradas, por lo que resulta imprescindible no solo un cómputo energéticamente eficiente, sino también un balance óptimo entre la transferencia de datos y el procesamiento. Para ello, en este trabajo se propone un algoritmo Simplicial Simétrico a Canales Separados (ChSymSim), que produce implementaciones de bajo consumo, y se optimiza una arquitectura que permite so portar la ejecución de distintos tipos de capas (diversas configuraciones de precisión, kernel, stride y padding) manteniendo la eficiencia energética. Para poner en evidencia el impacto de la implementación, se realizaron dos prototipos preliminares con estructuras de prueba y evaluación (I/O de datos, buses, configuración, control) y se culminó con la fabricación de un sistema en chip (SoC) complejo de 9mm2 en una tecnología de 65nm. Adicionalmente, se desarrollaron técnicas de entrenamiento con cuantización (QAT), optimizadas para funciones Simpliciales Simétricas en punto fijo. Los experimentos realizados mostraron una eficiencia energética elevada, alcanzando valores promedios superiores a los 4 TOPS/W bajo diversas configuraciones, con un máximo de 12,12 TOPS/W. Estos resultados permiten asegurar que el acelerador ChSymSim propuesto es una solución viable para el procesamiento eficiente de algoritmos para aprendizaje de máquina (ML) en dispositivos embebidos de baja potencia. |
| publishDate |
2025 |
| dc.date.none.fl_str_mv |
2025-03-05 |
| dc.type.none.fl_str_mv |
info:eu-repo/semantics/doctoralThesis info:eu-repo/semantics/acceptedVersion http://purl.org/coar/resource_type/c_db06 info:ar-repo/semantics/tesisDoctoral |
| format |
doctoralThesis |
| status_str |
acceptedVersion |
| dc.identifier.none.fl_str_mv |
https://repositoriodigital.uns.edu.ar/handle/123456789/7328 |
| url |
https://repositoriodigital.uns.edu.ar/handle/123456789/7328 |
| dc.language.none.fl_str_mv |
spa |
| language |
spa |
| dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess http://creativecommons.org/licenses/by-sa/4.0/ |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
http://creativecommons.org/licenses/by-sa/4.0/ |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.source.none.fl_str_mv |
reponame:Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS) instname:Universidad Nacional del Sur |
| reponame_str |
Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS) |
| collection |
Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS) |
| instname_str |
Universidad Nacional del Sur |
| repository.name.fl_str_mv |
Repositorio Institucional Digital de la Universidad Nacional del Sur (RID-UNS) - Universidad Nacional del Sur |
| repository.mail.fl_str_mv |
mesnaola@uns.edu.ar |
| _version_ |
1846787476375470080 |
| score |
12.982451 |