Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
- Autores
- Mota, Denysson Axel Ribeiro; Martins, Gracy Kelli; Sampaio, Denise Braga
- Año de publicación
- 2024
- Idioma
- español castellano
- Tipo de recurso
- documento de conferencia
- Estado
- versión publicada
- Descripción
- Siguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificarsesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: (white), (black), (a man), (a woman), (a firefighter), (a nurse), (a doctor), (an inmate), escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías.
Fil: Mota, Denysson Axel Ribeiro. UFCA.
Fil: Martins, Gracy Kelli. UFPB.
Fil: Sampaio, Denise Braga. UFBA. - Fuente
- VII Jornadas de Intercambio y Reflexión acerca de la Investigación en Bibliotecología; Ensenada, Argentina, 17-19 de abril de 2024
ISSN 1853-5631 - Materia
-
Bibliotecología y ciencia de la información
Inteligencia artificial
Redes neuronales generativas
Algoritmos racistas - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- https://creativecommons.org/licenses/by-sa/4.0/
- Repositorio
- Institución
- Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación
- OAI Identificador
- oai:memoria.fahce.unlp.edu.ar:snrd:Jev17755
Ver los metadatos del registro completo
id |
MemAca_3455722292d2a8b375589404731409d2 |
---|---|
oai_identifier_str |
oai:memoria.fahce.unlp.edu.ar:snrd:Jev17755 |
network_acronym_str |
MemAca |
repository_id_str |
1341 |
network_name_str |
Memoria Académica (UNLP-FAHCE) |
spelling |
Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y géneroMota, Denysson Axel RibeiroMartins, Gracy KelliSampaio, Denise BragaBibliotecología y ciencia de la informaciónInteligencia artificialRedes neuronales generativasAlgoritmos racistasSiguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificarsesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: (white), (black), (a man), (a woman), (a firefighter), (a nurse), (a doctor), (an inmate), escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías.Fil: Mota, Denysson Axel Ribeiro. UFCA.Fil: Martins, Gracy Kelli. UFPB.Fil: Sampaio, Denise Braga. UFBA.2024info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdfhttps://www.memoria.fahce.unlp.edu.ar/trab_eventos/ev.17755/ev.17755.pdfVII Jornadas de Intercambio y Reflexión acerca de la Investigación en Bibliotecología; Ensenada, Argentina, 17-19 de abril de 2024ISSN 1853-5631reponame:Memoria Académica (UNLP-FAHCE)instname:Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educacióninstacron:UNLPspainfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-sa/4.0/2025-10-16T09:30:02Zoai:memoria.fahce.unlp.edu.ar:snrd:Jev17755Institucionalhttps://www.memoria.fahce.unlp.edu.ar/Universidad públicahttps://www.fahce.unlp.edu.ar/https://www.memoria.fahce.unlp.edu.ar/oaiserver.cgimemoria@fahce.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13412025-10-16 09:30:03.685Memoria Académica (UNLP-FAHCE) - Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educaciónfalse |
dc.title.none.fl_str_mv |
Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
title |
Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
spellingShingle |
Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género Mota, Denysson Axel Ribeiro Bibliotecología y ciencia de la información Inteligencia artificial Redes neuronales generativas Algoritmos racistas |
title_short |
Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
title_full |
Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
title_fullStr |
Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
title_full_unstemmed |
Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
title_sort |
Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
dc.creator.none.fl_str_mv |
Mota, Denysson Axel Ribeiro Martins, Gracy Kelli Sampaio, Denise Braga |
author |
Mota, Denysson Axel Ribeiro |
author_facet |
Mota, Denysson Axel Ribeiro Martins, Gracy Kelli Sampaio, Denise Braga |
author_role |
author |
author2 |
Martins, Gracy Kelli Sampaio, Denise Braga |
author2_role |
author author |
dc.subject.none.fl_str_mv |
Bibliotecología y ciencia de la información Inteligencia artificial Redes neuronales generativas Algoritmos racistas |
topic |
Bibliotecología y ciencia de la información Inteligencia artificial Redes neuronales generativas Algoritmos racistas |
dc.description.none.fl_txt_mv |
Siguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificarsesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: (white), (black), (a man), (a woman), (a firefighter), (a nurse), (a doctor), (an inmate), escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías. Fil: Mota, Denysson Axel Ribeiro. UFCA. Fil: Martins, Gracy Kelli. UFPB. Fil: Sampaio, Denise Braga. UFBA. |
description |
Siguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificarsesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: (white), (black), (a man), (a woman), (a firefighter), (a nurse), (a doctor), (an inmate), escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías. |
publishDate |
2024 |
dc.date.none.fl_str_mv |
2024 |
dc.type.none.fl_str_mv |
info:eu-repo/semantics/conferenceObject info:eu-repo/semantics/publishedVersion http://purl.org/coar/resource_type/c_5794 info:ar-repo/semantics/documentoDeConferencia |
format |
conferenceObject |
status_str |
publishedVersion |
dc.identifier.none.fl_str_mv |
https://www.memoria.fahce.unlp.edu.ar/trab_eventos/ev.17755/ev.17755.pdf |
url |
https://www.memoria.fahce.unlp.edu.ar/trab_eventos/ev.17755/ev.17755.pdf |
dc.language.none.fl_str_mv |
spa |
language |
spa |
dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess https://creativecommons.org/licenses/by-sa/4.0/ |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
https://creativecommons.org/licenses/by-sa/4.0/ |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
VII Jornadas de Intercambio y Reflexión acerca de la Investigación en Bibliotecología; Ensenada, Argentina, 17-19 de abril de 2024 ISSN 1853-5631 reponame:Memoria Académica (UNLP-FAHCE) instname:Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación instacron:UNLP |
reponame_str |
Memoria Académica (UNLP-FAHCE) |
collection |
Memoria Académica (UNLP-FAHCE) |
instname_str |
Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación |
instacron_str |
UNLP |
institution |
UNLP |
repository.name.fl_str_mv |
Memoria Académica (UNLP-FAHCE) - Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación |
repository.mail.fl_str_mv |
memoria@fahce.unlp.edu.ar |
_version_ |
1846143230822842368 |
score |
13.22299 |