Propiedades colectivas del procesamiento neuronal
- Autores
- Ferrán, Edgardo Alberto
- Año de publicación
- 1989
- Idioma
- español castellano
- Tipo de recurso
- tesis doctoral
- Estado
- versión publicada
- Colaborador/a o director/a de tesis
- Perazzo, Roberto Pedro José
- Descripción
- En el presente trabajo estudiamos las propiedades colectivas de un conjunto deneuronas. En particular, analizamos detalladamente la capacidad de generalizaciónque tienen las redes neuronales conectadas sin retroalimentación, centrandonuestra atención en el aprendizaje de funciones booleanas a partir de ejemplos. Estudiamosel grupo de operaciones de simetría de las entradas y salidas exterioresde la red. Los generadores de dicho grupo son las permutaciones de los pares deentradas, las permutaciones de los pares de salida y los intercambios de unos porceros en cada una de las entradas. Si estas operaciones de simetría pueden ser compensadaspor covariaciones realizadas simultáneamente en las matrices sinápticas,entonces el espacio fásico sináptico J y el espacio de las funciones booleanas Festán particionados en clases de equivalencia. Estas particiones implican que cadafunción booleana de una dada clase puede ser representada por la misma cantidadde matrices sinápticas. Por otra parte, estas particiones de los espacios Jy F caracterizan la capacidad de inferencia de la red ya que todas las funcionesbooleanas de una misma clase tienen curvas de aprendizaje idénticas. En ciertoscasos particulares (redes homogéneas generales de procesamiento neuronal impar yredes homogéneas en cascada de procesamiento neuronal par, ambas con umbralesnulos), la operación de simetría que intercambia unos por ceros en todas las entradasexteriores permite hallar reglas que predicen a priori la irrepresentabilidadde ciertas funciones booleanas. Analizamos la universalidad de la computabilidadbooleana de las redes de procesamiento discreto. Proponemos para los diversostipos de redes analizadas algoritmos de aprendizaje basados en el método del recocidosimulado y estudiamos la termodinámica de dicho proceso de aprendizaje. Enparticular, proponemos y simulamos un algoritmo para aprender toda una familade funciones booleanas y, en base a un caso especial del mismo, sugerimos un modelode redes neuronales disléxicas. Definimos la entropía inferencial de las redesneuronales y mostramos cómo dicho parámetro es útil para clasificar las redes comocomputadoras de propósito general o de propósito específico. Verificamos todas laspropiedades anteriormente mencionadas mediante estudios numéricos, hallando lacantidad de matrices sinápticas que representan cada función booleana mediante unconteo exhaustivo en el espacio J (sólo realizable para redes pequeñas). Tambiénrealizamos estudios numéricos para analizar las propiedades (le redes compuestaspor neuronas con funciones de activación de distinta paridad, encontrando tantoredes de propósito general como de propósito-especílico. Finalmente, realizandoconteos estadísticos del espacio J para redes de mayor tamaño, hallamos un comportamientoasintótico de las curvas de aprendizaje al incrementarse el número decapas o de neuronas por capa.
Fil: Ferrán, Edgardo Alberto. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina. - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- https://creativecommons.org/licenses/by-nc-sa/2.5/ar
- Repositorio
.jpg)
- Institución
- Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
- OAI Identificador
- tesis:tesis_n2247_Ferran
Ver los metadatos del registro completo
| id |
BDUBAFCEN_521b7798ca1c9aa61845a8f93c79c682 |
|---|---|
| oai_identifier_str |
tesis:tesis_n2247_Ferran |
| network_acronym_str |
BDUBAFCEN |
| repository_id_str |
1896 |
| network_name_str |
Biblioteca Digital (UBA-FCEN) |
| spelling |
Propiedades colectivas del procesamiento neuronalFerrán, Edgardo AlbertoEn el presente trabajo estudiamos las propiedades colectivas de un conjunto deneuronas. En particular, analizamos detalladamente la capacidad de generalizaciónque tienen las redes neuronales conectadas sin retroalimentación, centrandonuestra atención en el aprendizaje de funciones booleanas a partir de ejemplos. Estudiamosel grupo de operaciones de simetría de las entradas y salidas exterioresde la red. Los generadores de dicho grupo son las permutaciones de los pares deentradas, las permutaciones de los pares de salida y los intercambios de unos porceros en cada una de las entradas. Si estas operaciones de simetría pueden ser compensadaspor covariaciones realizadas simultáneamente en las matrices sinápticas,entonces el espacio fásico sináptico J y el espacio de las funciones booleanas Festán particionados en clases de equivalencia. Estas particiones implican que cadafunción booleana de una dada clase puede ser representada por la misma cantidadde matrices sinápticas. Por otra parte, estas particiones de los espacios Jy F caracterizan la capacidad de inferencia de la red ya que todas las funcionesbooleanas de una misma clase tienen curvas de aprendizaje idénticas. En ciertoscasos particulares (redes homogéneas generales de procesamiento neuronal impar yredes homogéneas en cascada de procesamiento neuronal par, ambas con umbralesnulos), la operación de simetría que intercambia unos por ceros en todas las entradasexteriores permite hallar reglas que predicen a priori la irrepresentabilidadde ciertas funciones booleanas. Analizamos la universalidad de la computabilidadbooleana de las redes de procesamiento discreto. Proponemos para los diversostipos de redes analizadas algoritmos de aprendizaje basados en el método del recocidosimulado y estudiamos la termodinámica de dicho proceso de aprendizaje. Enparticular, proponemos y simulamos un algoritmo para aprender toda una familade funciones booleanas y, en base a un caso especial del mismo, sugerimos un modelode redes neuronales disléxicas. Definimos la entropía inferencial de las redesneuronales y mostramos cómo dicho parámetro es útil para clasificar las redes comocomputadoras de propósito general o de propósito específico. Verificamos todas laspropiedades anteriormente mencionadas mediante estudios numéricos, hallando lacantidad de matrices sinápticas que representan cada función booleana mediante unconteo exhaustivo en el espacio J (sólo realizable para redes pequeñas). Tambiénrealizamos estudios numéricos para analizar las propiedades (le redes compuestaspor neuronas con funciones de activación de distinta paridad, encontrando tantoredes de propósito general como de propósito-especílico. Finalmente, realizandoconteos estadísticos del espacio J para redes de mayor tamaño, hallamos un comportamientoasintótico de las curvas de aprendizaje al incrementarse el número decapas o de neuronas por capa.Fil: Ferrán, Edgardo Alberto. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina.Universidad de Buenos Aires. Facultad de Ciencias Exactas y NaturalesPerazzo, Roberto Pedro José1989info:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_db06info:ar-repo/semantics/tesisDoctoralapplication/pdfhttps://hdl.handle.net/20.500.12110/tesis_n2247_Ferranspainfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-nc-sa/2.5/arreponame:Biblioteca Digital (UBA-FCEN)instname:Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturalesinstacron:UBA-FCEN2025-11-27T08:34:35Ztesis:tesis_n2247_FerranInstitucionalhttps://digital.bl.fcen.uba.ar/Universidad públicaNo correspondehttps://digital.bl.fcen.uba.ar/cgi-bin/oaiserver.cgiana@bl.fcen.uba.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:18962025-11-27 08:34:36.806Biblioteca Digital (UBA-FCEN) - Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturalesfalse |
| dc.title.none.fl_str_mv |
Propiedades colectivas del procesamiento neuronal |
| title |
Propiedades colectivas del procesamiento neuronal |
| spellingShingle |
Propiedades colectivas del procesamiento neuronal Ferrán, Edgardo Alberto |
| title_short |
Propiedades colectivas del procesamiento neuronal |
| title_full |
Propiedades colectivas del procesamiento neuronal |
| title_fullStr |
Propiedades colectivas del procesamiento neuronal |
| title_full_unstemmed |
Propiedades colectivas del procesamiento neuronal |
| title_sort |
Propiedades colectivas del procesamiento neuronal |
| dc.creator.none.fl_str_mv |
Ferrán, Edgardo Alberto |
| author |
Ferrán, Edgardo Alberto |
| author_facet |
Ferrán, Edgardo Alberto |
| author_role |
author |
| dc.contributor.none.fl_str_mv |
Perazzo, Roberto Pedro José |
| dc.description.none.fl_txt_mv |
En el presente trabajo estudiamos las propiedades colectivas de un conjunto deneuronas. En particular, analizamos detalladamente la capacidad de generalizaciónque tienen las redes neuronales conectadas sin retroalimentación, centrandonuestra atención en el aprendizaje de funciones booleanas a partir de ejemplos. Estudiamosel grupo de operaciones de simetría de las entradas y salidas exterioresde la red. Los generadores de dicho grupo son las permutaciones de los pares deentradas, las permutaciones de los pares de salida y los intercambios de unos porceros en cada una de las entradas. Si estas operaciones de simetría pueden ser compensadaspor covariaciones realizadas simultáneamente en las matrices sinápticas,entonces el espacio fásico sináptico J y el espacio de las funciones booleanas Festán particionados en clases de equivalencia. Estas particiones implican que cadafunción booleana de una dada clase puede ser representada por la misma cantidadde matrices sinápticas. Por otra parte, estas particiones de los espacios Jy F caracterizan la capacidad de inferencia de la red ya que todas las funcionesbooleanas de una misma clase tienen curvas de aprendizaje idénticas. En ciertoscasos particulares (redes homogéneas generales de procesamiento neuronal impar yredes homogéneas en cascada de procesamiento neuronal par, ambas con umbralesnulos), la operación de simetría que intercambia unos por ceros en todas las entradasexteriores permite hallar reglas que predicen a priori la irrepresentabilidadde ciertas funciones booleanas. Analizamos la universalidad de la computabilidadbooleana de las redes de procesamiento discreto. Proponemos para los diversostipos de redes analizadas algoritmos de aprendizaje basados en el método del recocidosimulado y estudiamos la termodinámica de dicho proceso de aprendizaje. Enparticular, proponemos y simulamos un algoritmo para aprender toda una familade funciones booleanas y, en base a un caso especial del mismo, sugerimos un modelode redes neuronales disléxicas. Definimos la entropía inferencial de las redesneuronales y mostramos cómo dicho parámetro es útil para clasificar las redes comocomputadoras de propósito general o de propósito específico. Verificamos todas laspropiedades anteriormente mencionadas mediante estudios numéricos, hallando lacantidad de matrices sinápticas que representan cada función booleana mediante unconteo exhaustivo en el espacio J (sólo realizable para redes pequeñas). Tambiénrealizamos estudios numéricos para analizar las propiedades (le redes compuestaspor neuronas con funciones de activación de distinta paridad, encontrando tantoredes de propósito general como de propósito-especílico. Finalmente, realizandoconteos estadísticos del espacio J para redes de mayor tamaño, hallamos un comportamientoasintótico de las curvas de aprendizaje al incrementarse el número decapas o de neuronas por capa. Fil: Ferrán, Edgardo Alberto. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina. |
| description |
En el presente trabajo estudiamos las propiedades colectivas de un conjunto deneuronas. En particular, analizamos detalladamente la capacidad de generalizaciónque tienen las redes neuronales conectadas sin retroalimentación, centrandonuestra atención en el aprendizaje de funciones booleanas a partir de ejemplos. Estudiamosel grupo de operaciones de simetría de las entradas y salidas exterioresde la red. Los generadores de dicho grupo son las permutaciones de los pares deentradas, las permutaciones de los pares de salida y los intercambios de unos porceros en cada una de las entradas. Si estas operaciones de simetría pueden ser compensadaspor covariaciones realizadas simultáneamente en las matrices sinápticas,entonces el espacio fásico sináptico J y el espacio de las funciones booleanas Festán particionados en clases de equivalencia. Estas particiones implican que cadafunción booleana de una dada clase puede ser representada por la misma cantidadde matrices sinápticas. Por otra parte, estas particiones de los espacios Jy F caracterizan la capacidad de inferencia de la red ya que todas las funcionesbooleanas de una misma clase tienen curvas de aprendizaje idénticas. En ciertoscasos particulares (redes homogéneas generales de procesamiento neuronal impar yredes homogéneas en cascada de procesamiento neuronal par, ambas con umbralesnulos), la operación de simetría que intercambia unos por ceros en todas las entradasexteriores permite hallar reglas que predicen a priori la irrepresentabilidadde ciertas funciones booleanas. Analizamos la universalidad de la computabilidadbooleana de las redes de procesamiento discreto. Proponemos para los diversostipos de redes analizadas algoritmos de aprendizaje basados en el método del recocidosimulado y estudiamos la termodinámica de dicho proceso de aprendizaje. Enparticular, proponemos y simulamos un algoritmo para aprender toda una familade funciones booleanas y, en base a un caso especial del mismo, sugerimos un modelode redes neuronales disléxicas. Definimos la entropía inferencial de las redesneuronales y mostramos cómo dicho parámetro es útil para clasificar las redes comocomputadoras de propósito general o de propósito específico. Verificamos todas laspropiedades anteriormente mencionadas mediante estudios numéricos, hallando lacantidad de matrices sinápticas que representan cada función booleana mediante unconteo exhaustivo en el espacio J (sólo realizable para redes pequeñas). Tambiénrealizamos estudios numéricos para analizar las propiedades (le redes compuestaspor neuronas con funciones de activación de distinta paridad, encontrando tantoredes de propósito general como de propósito-especílico. Finalmente, realizandoconteos estadísticos del espacio J para redes de mayor tamaño, hallamos un comportamientoasintótico de las curvas de aprendizaje al incrementarse el número decapas o de neuronas por capa. |
| publishDate |
1989 |
| dc.date.none.fl_str_mv |
1989 |
| dc.type.none.fl_str_mv |
info:eu-repo/semantics/doctoralThesis info:eu-repo/semantics/publishedVersion http://purl.org/coar/resource_type/c_db06 info:ar-repo/semantics/tesisDoctoral |
| format |
doctoralThesis |
| status_str |
publishedVersion |
| dc.identifier.none.fl_str_mv |
https://hdl.handle.net/20.500.12110/tesis_n2247_Ferran |
| url |
https://hdl.handle.net/20.500.12110/tesis_n2247_Ferran |
| dc.language.none.fl_str_mv |
spa |
| language |
spa |
| dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess https://creativecommons.org/licenses/by-nc-sa/2.5/ar |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
https://creativecommons.org/licenses/by-nc-sa/2.5/ar |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales |
| publisher.none.fl_str_mv |
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales |
| dc.source.none.fl_str_mv |
reponame:Biblioteca Digital (UBA-FCEN) instname:Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales instacron:UBA-FCEN |
| reponame_str |
Biblioteca Digital (UBA-FCEN) |
| collection |
Biblioteca Digital (UBA-FCEN) |
| instname_str |
Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales |
| instacron_str |
UBA-FCEN |
| institution |
UBA-FCEN |
| repository.name.fl_str_mv |
Biblioteca Digital (UBA-FCEN) - Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales |
| repository.mail.fl_str_mv |
ana@bl.fcen.uba.ar |
| _version_ |
1849948790226681856 |
| score |
13.011256 |