Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género

Autores
Mota, Denysson Axel Ribeiro; Martins, Gracy Kelli; Sampaio, Denise Braga
Año de publicación
2024
Idioma
español castellano
Tipo de recurso
documento de conferencia
Estado
versión publicada
Descripción
Siguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificarsesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: (white), (black), (a man), (a woman), (a firefighter), (a nurse), (a doctor), (an inmate), escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías.
Fil: Mota, Denysson Axel Ribeiro. UFCA.
Fil: Martins, Gracy Kelli. UFPB.
Fil: Sampaio, Denise Braga. UFBA.
Fuente
VII Jornadas de Intercambio y Reflexión acerca de la Investigación en Bibliotecología; Ensenada, Argentina, 17-19 de abril de 2024
ISSN 1853-5631
Materia
Bibliotecología y ciencia de la información
Inteligencia artificial
Redes neuronales generativas
Algoritmos racistas
Nivel de accesibilidad
acceso abierto
Condiciones de uso
https://creativecommons.org/licenses/by-sa/4.0/
Repositorio
Memoria Académica (UNLP-FAHCE)
Institución
Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación
OAI Identificador
oai:memoria.fahce.unlp.edu.ar:snrd:Jev17755

id MemAca_3455722292d2a8b375589404731409d2
oai_identifier_str oai:memoria.fahce.unlp.edu.ar:snrd:Jev17755
network_acronym_str MemAca
repository_id_str 1341
network_name_str Memoria Académica (UNLP-FAHCE)
spelling Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y géneroMota, Denysson Axel RibeiroMartins, Gracy KelliSampaio, Denise BragaBibliotecología y ciencia de la informaciónInteligencia artificialRedes neuronales generativasAlgoritmos racistasSiguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificarsesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: (white), (black), (a man), (a woman), (a firefighter), (a nurse), (a doctor), (an inmate), escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías.Fil: Mota, Denysson Axel Ribeiro. UFCA.Fil: Martins, Gracy Kelli. UFPB.Fil: Sampaio, Denise Braga. UFBA.2024info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionhttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdfhttps://www.memoria.fahce.unlp.edu.ar/trab_eventos/ev.17755/ev.17755.pdfVII Jornadas de Intercambio y Reflexión acerca de la Investigación en Bibliotecología; Ensenada, Argentina, 17-19 de abril de 2024ISSN 1853-5631reponame:Memoria Académica (UNLP-FAHCE)instname:Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educacióninstacron:UNLPspainfo:eu-repo/semantics/openAccesshttps://creativecommons.org/licenses/by-sa/4.0/2025-10-16T09:30:02Zoai:memoria.fahce.unlp.edu.ar:snrd:Jev17755Institucionalhttps://www.memoria.fahce.unlp.edu.ar/Universidad públicahttps://www.fahce.unlp.edu.ar/https://www.memoria.fahce.unlp.edu.ar/oaiserver.cgimemoria@fahce.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13412025-10-16 09:30:03.685Memoria Académica (UNLP-FAHCE) - Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educaciónfalse
dc.title.none.fl_str_mv Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
title Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
spellingShingle Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
Mota, Denysson Axel Ribeiro
Bibliotecología y ciencia de la información
Inteligencia artificial
Redes neuronales generativas
Algoritmos racistas
title_short Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
title_full Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
title_fullStr Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
title_full_unstemmed Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
title_sort Sesgos en inteligencia artificial : un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
dc.creator.none.fl_str_mv Mota, Denysson Axel Ribeiro
Martins, Gracy Kelli
Sampaio, Denise Braga
author Mota, Denysson Axel Ribeiro
author_facet Mota, Denysson Axel Ribeiro
Martins, Gracy Kelli
Sampaio, Denise Braga
author_role author
author2 Martins, Gracy Kelli
Sampaio, Denise Braga
author2_role author
author
dc.subject.none.fl_str_mv Bibliotecología y ciencia de la información
Inteligencia artificial
Redes neuronales generativas
Algoritmos racistas
topic Bibliotecología y ciencia de la información
Inteligencia artificial
Redes neuronales generativas
Algoritmos racistas
dc.description.none.fl_txt_mv Siguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificarsesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: (white), (black), (a man), (a woman), (a firefighter), (a nurse), (a doctor), (an inmate), escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías.
Fil: Mota, Denysson Axel Ribeiro. UFCA.
Fil: Martins, Gracy Kelli. UFPB.
Fil: Sampaio, Denise Braga. UFBA.
description Siguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificarsesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: (white), (black), (a man), (a woman), (a firefighter), (a nurse), (a doctor), (an inmate), escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías.
publishDate 2024
dc.date.none.fl_str_mv 2024
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/publishedVersion
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str publishedVersion
dc.identifier.none.fl_str_mv https://www.memoria.fahce.unlp.edu.ar/trab_eventos/ev.17755/ev.17755.pdf
url https://www.memoria.fahce.unlp.edu.ar/trab_eventos/ev.17755/ev.17755.pdf
dc.language.none.fl_str_mv spa
language spa
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
https://creativecommons.org/licenses/by-sa/4.0/
eu_rights_str_mv openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by-sa/4.0/
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv VII Jornadas de Intercambio y Reflexión acerca de la Investigación en Bibliotecología; Ensenada, Argentina, 17-19 de abril de 2024
ISSN 1853-5631
reponame:Memoria Académica (UNLP-FAHCE)
instname:Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación
instacron:UNLP
reponame_str Memoria Académica (UNLP-FAHCE)
collection Memoria Académica (UNLP-FAHCE)
instname_str Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv Memoria Académica (UNLP-FAHCE) - Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación
repository.mail.fl_str_mv memoria@fahce.unlp.edu.ar
_version_ 1846143230822842368
score 13.22299