¿Capturan los embeddings de los LLMs información sobre temporalidad y relaciones espaciales?
- Autores
- Suaiter, Federico Hernán
- Año de publicación
- 2025
- Idioma
- español castellano
- Tipo de recurso
- tesis de grado
- Estado
- versión publicada
- Colaborador/a o director/a de tesis
- Feuerstein, Esteban Zindel
Ortiz de Zárate, Juan Manuel - Descripción
- Los Large Language Models (LLMs) han demostrado una capacidad notable para capturar complejas relaciones semánticas a través de sus embeddings, contribuyendo significativamente al avance de diversas aplicaciones, como el procesamiento del lenguaje natural (NLP). Sin embargo, la manera en que estos modelos representan conceptos abstractos como el tiempo y el espacio sigue siendo un área en exploración. Este trabajo tiene como objetivo analizar cómo los LLMs modelan el tiempo y el espacio dentro de sus representaciones vectoriales. Dicho análisis se lleva a cabo de forma directa sobre la estructura interna de las representaciones, permitiendo una evaluación transparente y una interpretación accesible. Si bien los LLMs solo han sido entrenados para predecir el siguiente token en una secuencia, su comportamiento revela una profundidad que trasciende las intenciones iniciales de su diseño. Los resultados obtenidos al analizar diferentes modelos de LLMs revelan patrones específicos en la manera en que dichos LLMs representan eventos temporales y ubicaciones geográficas, sugiriendo que efectivamente incorporan de manera implícita una estructura, en mayor o menor medida, espacio-temporal en sus representaciones vectoriales. Estos hallazgos abren nuevas oportunidades para el desarrollo de técnicas que mejoran la precisión de los LLMs en tareas que requieren razonamiento espacio-temporal avanzado. Además, contribuyen a la comprensión de las limitaciones actuales, proporcionando una base para futuras investigaciones dirigidas a optimizar su capacidad de modelar conceptos abstractos y complejos en contextos aplicados.
Fil: Suaiter, Federico Hernán. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina. - Materia
-
LLMS
CAPACIDADES EMERGENTES
WORLD MODELS
TIEMPO
ESPACIO
EMBEDDINGS - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- https://creativecommons.org/licenses/by-nc-sa/2.5/ar
- Repositorio
.jpg)
- Institución
- Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales
- OAI Identificador
- seminario:seminario_nCOM000828_Suaiter
Ver los metadatos del registro completo
| id |
BDUBAFCEN_877d2a2fe77e5be31df0f44a7d4d9fa7 |
|---|---|
| oai_identifier_str |
seminario:seminario_nCOM000828_Suaiter |
| network_acronym_str |
BDUBAFCEN |
| repository_id_str |
1896 |
| network_name_str |
Biblioteca Digital (UBA-FCEN) |
| spelling |
¿Capturan los embeddings de los LLMs información sobre temporalidad y relaciones espaciales?Suaiter, Federico HernánLLMSCAPACIDADES EMERGENTESWORLD MODELSTIEMPOESPACIOEMBEDDINGSLos Large Language Models (LLMs) han demostrado una capacidad notable para capturar complejas relaciones semánticas a través de sus embeddings, contribuyendo significativamente al avance de diversas aplicaciones, como el procesamiento del lenguaje natural (NLP). Sin embargo, la manera en que estos modelos representan conceptos abstractos como el tiempo y el espacio sigue siendo un área en exploración. Este trabajo tiene como objetivo analizar cómo los LLMs modelan el tiempo y el espacio dentro de sus representaciones vectoriales. Dicho análisis se lleva a cabo de forma directa sobre la estructura interna de las representaciones, permitiendo una evaluación transparente y una interpretación accesible. Si bien los LLMs solo han sido entrenados para predecir el siguiente token en una secuencia, su comportamiento revela una profundidad que trasciende las intenciones iniciales de su diseño. Los resultados obtenidos al analizar diferentes modelos de LLMs revelan patrones específicos en la manera en que dichos LLMs representan eventos temporales y ubicaciones geográficas, sugiriendo que efectivamente incorporan de manera implícita una estructura, en mayor o menor medida, espacio-temporal en sus representaciones vectoriales. Estos hallazgos abren nuevas oportunidades para el desarrollo de técnicas que mejoran la precisión de los LLMs en tareas que requieren razonamiento espacio-temporal avanzado. Además, contribuyen a la comprensión de las limitaciones actuales, proporcionando una base para futuras investigaciones dirigidas a optimizar su capacidad de modelar conceptos abstractos y complejos en contextos aplicados.Fil: Suaiter, Federico Hernán. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina.Universidad de Buenos Aires. Facultad de Ciencias Exactas y NaturalesFeuerstein, Esteban ZindelOrtiz de Zárate, Juan Manuel2025-04-21info:eu-repo/semantics/bachelorThesisinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_7a1finfo:ar-repo/semantics/tesisDeGradoapplication/pdfhttps://hdl.handle.net/20.500.12110/seminario_nCOM000828_Suaiterspainfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-nc-sa/2.5/arreponame:Biblioteca Digital (UBA-FCEN)instname:Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturalesinstacron:UBA-FCEN2026-02-26T11:45:06Zseminario:seminario_nCOM000828_SuaiterInstitucionalhttps://digital.bl.fcen.uba.ar/Universidad públicaNo correspondehttps://digital.bl.fcen.uba.ar/cgi-bin/oaiserver.cgiana@bl.fcen.uba.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:18962026-02-26 11:45:07.523Biblioteca Digital (UBA-FCEN) - Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturalesfalse |
| dc.title.none.fl_str_mv |
¿Capturan los embeddings de los LLMs información sobre temporalidad y relaciones espaciales? |
| title |
¿Capturan los embeddings de los LLMs información sobre temporalidad y relaciones espaciales? |
| spellingShingle |
¿Capturan los embeddings de los LLMs información sobre temporalidad y relaciones espaciales? Suaiter, Federico Hernán LLMS CAPACIDADES EMERGENTES WORLD MODELS TIEMPO ESPACIO EMBEDDINGS |
| title_short |
¿Capturan los embeddings de los LLMs información sobre temporalidad y relaciones espaciales? |
| title_full |
¿Capturan los embeddings de los LLMs información sobre temporalidad y relaciones espaciales? |
| title_fullStr |
¿Capturan los embeddings de los LLMs información sobre temporalidad y relaciones espaciales? |
| title_full_unstemmed |
¿Capturan los embeddings de los LLMs información sobre temporalidad y relaciones espaciales? |
| title_sort |
¿Capturan los embeddings de los LLMs información sobre temporalidad y relaciones espaciales? |
| dc.creator.none.fl_str_mv |
Suaiter, Federico Hernán |
| author |
Suaiter, Federico Hernán |
| author_facet |
Suaiter, Federico Hernán |
| author_role |
author |
| dc.contributor.none.fl_str_mv |
Feuerstein, Esteban Zindel Ortiz de Zárate, Juan Manuel |
| dc.subject.none.fl_str_mv |
LLMS CAPACIDADES EMERGENTES WORLD MODELS TIEMPO ESPACIO EMBEDDINGS |
| topic |
LLMS CAPACIDADES EMERGENTES WORLD MODELS TIEMPO ESPACIO EMBEDDINGS |
| dc.description.none.fl_txt_mv |
Los Large Language Models (LLMs) han demostrado una capacidad notable para capturar complejas relaciones semánticas a través de sus embeddings, contribuyendo significativamente al avance de diversas aplicaciones, como el procesamiento del lenguaje natural (NLP). Sin embargo, la manera en que estos modelos representan conceptos abstractos como el tiempo y el espacio sigue siendo un área en exploración. Este trabajo tiene como objetivo analizar cómo los LLMs modelan el tiempo y el espacio dentro de sus representaciones vectoriales. Dicho análisis se lleva a cabo de forma directa sobre la estructura interna de las representaciones, permitiendo una evaluación transparente y una interpretación accesible. Si bien los LLMs solo han sido entrenados para predecir el siguiente token en una secuencia, su comportamiento revela una profundidad que trasciende las intenciones iniciales de su diseño. Los resultados obtenidos al analizar diferentes modelos de LLMs revelan patrones específicos en la manera en que dichos LLMs representan eventos temporales y ubicaciones geográficas, sugiriendo que efectivamente incorporan de manera implícita una estructura, en mayor o menor medida, espacio-temporal en sus representaciones vectoriales. Estos hallazgos abren nuevas oportunidades para el desarrollo de técnicas que mejoran la precisión de los LLMs en tareas que requieren razonamiento espacio-temporal avanzado. Además, contribuyen a la comprensión de las limitaciones actuales, proporcionando una base para futuras investigaciones dirigidas a optimizar su capacidad de modelar conceptos abstractos y complejos en contextos aplicados. Fil: Suaiter, Federico Hernán. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina. |
| description |
Los Large Language Models (LLMs) han demostrado una capacidad notable para capturar complejas relaciones semánticas a través de sus embeddings, contribuyendo significativamente al avance de diversas aplicaciones, como el procesamiento del lenguaje natural (NLP). Sin embargo, la manera en que estos modelos representan conceptos abstractos como el tiempo y el espacio sigue siendo un área en exploración. Este trabajo tiene como objetivo analizar cómo los LLMs modelan el tiempo y el espacio dentro de sus representaciones vectoriales. Dicho análisis se lleva a cabo de forma directa sobre la estructura interna de las representaciones, permitiendo una evaluación transparente y una interpretación accesible. Si bien los LLMs solo han sido entrenados para predecir el siguiente token en una secuencia, su comportamiento revela una profundidad que trasciende las intenciones iniciales de su diseño. Los resultados obtenidos al analizar diferentes modelos de LLMs revelan patrones específicos en la manera en que dichos LLMs representan eventos temporales y ubicaciones geográficas, sugiriendo que efectivamente incorporan de manera implícita una estructura, en mayor o menor medida, espacio-temporal en sus representaciones vectoriales. Estos hallazgos abren nuevas oportunidades para el desarrollo de técnicas que mejoran la precisión de los LLMs en tareas que requieren razonamiento espacio-temporal avanzado. Además, contribuyen a la comprensión de las limitaciones actuales, proporcionando una base para futuras investigaciones dirigidas a optimizar su capacidad de modelar conceptos abstractos y complejos en contextos aplicados. |
| publishDate |
2025 |
| dc.date.none.fl_str_mv |
2025-04-21 |
| dc.type.none.fl_str_mv |
info:eu-repo/semantics/bachelorThesis info:eu-repo/semantics/publishedVersion http://purl.org/coar/resource_type/c_7a1f info:ar-repo/semantics/tesisDeGrado |
| format |
bachelorThesis |
| status_str |
publishedVersion |
| dc.identifier.none.fl_str_mv |
https://hdl.handle.net/20.500.12110/seminario_nCOM000828_Suaiter |
| url |
https://hdl.handle.net/20.500.12110/seminario_nCOM000828_Suaiter |
| dc.language.none.fl_str_mv |
spa |
| language |
spa |
| dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess https://creativecommons.org/licenses/by-nc-sa/2.5/ar |
| eu_rights_str_mv |
openAccess |
| rights_invalid_str_mv |
https://creativecommons.org/licenses/by-nc-sa/2.5/ar |
| dc.format.none.fl_str_mv |
application/pdf |
| dc.publisher.none.fl_str_mv |
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales |
| publisher.none.fl_str_mv |
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales |
| dc.source.none.fl_str_mv |
reponame:Biblioteca Digital (UBA-FCEN) instname:Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales instacron:UBA-FCEN |
| reponame_str |
Biblioteca Digital (UBA-FCEN) |
| collection |
Biblioteca Digital (UBA-FCEN) |
| instname_str |
Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales |
| instacron_str |
UBA-FCEN |
| institution |
UBA-FCEN |
| repository.name.fl_str_mv |
Biblioteca Digital (UBA-FCEN) - Universidad Nacional de Buenos Aires. Facultad de Ciencias Exactas y Naturales |
| repository.mail.fl_str_mv |
ana@bl.fcen.uba.ar |
| _version_ |
1858206399279923200 |
| score |
13.176822 |