Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género

Autores
Ribeiro Mota, Denysson Axel; Martins, Gracy Kelli; Braga Sampaio, Denise
Año de publicación
2024
Idioma
español castellano
Tipo de recurso
documento de conferencia
Estado
versión publicada
Descripción
Siguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificar sesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: [white], [black], [a man], [a woman], [a firefighter], [a nurse], [a doctor], [an inmate], escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías.
Facultad de Humanidades y Ciencias de la Educación
Materia
Bibliotecología
Inteligencia artificial
redes neuronales generativas
algoritmos racistas
Nivel de accesibilidad
acceso abierto
Condiciones de uso
http://creativecommons.org/licenses/by-nc-sa/4.0/
Repositorio
SEDICI (UNLP)
Institución
Universidad Nacional de La Plata
OAI Identificador
oai:sedici.unlp.edu.ar:10915/181205

id SEDICI_ca803612fb2e1777264a1fcb9061f646
oai_identifier_str oai:sedici.unlp.edu.ar:10915/181205
network_acronym_str SEDICI
repository_id_str 1329
network_name_str SEDICI (UNLP)
spelling Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y géneroRibeiro Mota, Denysson AxelMartins, Gracy KelliBraga Sampaio, DeniseBibliotecologíaInteligencia artificialredes neuronales generativasalgoritmos racistasSiguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificar sesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: [white], [black], [a man], [a woman], [a firefighter], [a nurse], [a doctor], [an inmate], escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías.Facultad de Humanidades y Ciencias de la Educación2024info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/181205spainfo:eu-repo/semantics/altIdentifier/url/http://jornadabibliotecologia.fahce.unlp.edu.ar/jornadas-2024/actas/ponencia-241216141017224298/@@display-file/file/Mesa 9_Mota.pdfinfo:eu-repo/semantics/altIdentifier/issn/1853-5631info:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-03T11:20:45Zoai:sedici.unlp.edu.ar:10915/181205Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-03 11:20:45.813SEDICI (UNLP) - Universidad Nacional de La Platafalse
dc.title.none.fl_str_mv Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
title Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
spellingShingle Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
Ribeiro Mota, Denysson Axel
Bibliotecología
Inteligencia artificial
redes neuronales generativas
algoritmos racistas
title_short Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
title_full Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
title_fullStr Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
title_full_unstemmed Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
title_sort Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
dc.creator.none.fl_str_mv Ribeiro Mota, Denysson Axel
Martins, Gracy Kelli
Braga Sampaio, Denise
author Ribeiro Mota, Denysson Axel
author_facet Ribeiro Mota, Denysson Axel
Martins, Gracy Kelli
Braga Sampaio, Denise
author_role author
author2 Martins, Gracy Kelli
Braga Sampaio, Denise
author2_role author
author
dc.subject.none.fl_str_mv Bibliotecología
Inteligencia artificial
redes neuronales generativas
algoritmos racistas
topic Bibliotecología
Inteligencia artificial
redes neuronales generativas
algoritmos racistas
dc.description.none.fl_txt_mv Siguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificar sesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: [white], [black], [a man], [a woman], [a firefighter], [a nurse], [a doctor], [an inmate], escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías.
Facultad de Humanidades y Ciencias de la Educación
description Siguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificar sesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: [white], [black], [a man], [a woman], [a firefighter], [a nurse], [a doctor], [an inmate], escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías.
publishDate 2024
dc.date.none.fl_str_mv 2024
dc.type.none.fl_str_mv info:eu-repo/semantics/conferenceObject
info:eu-repo/semantics/publishedVersion
Objeto de conferencia
http://purl.org/coar/resource_type/c_5794
info:ar-repo/semantics/documentoDeConferencia
format conferenceObject
status_str publishedVersion
dc.identifier.none.fl_str_mv http://sedici.unlp.edu.ar/handle/10915/181205
url http://sedici.unlp.edu.ar/handle/10915/181205
dc.language.none.fl_str_mv spa
language spa
dc.relation.none.fl_str_mv info:eu-repo/semantics/altIdentifier/url/http://jornadabibliotecologia.fahce.unlp.edu.ar/jornadas-2024/actas/ponencia-241216141017224298/@@display-file/file/Mesa 9_Mota.pdf
info:eu-repo/semantics/altIdentifier/issn/1853-5631
dc.rights.none.fl_str_mv info:eu-repo/semantics/openAccess
http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
eu_rights_str_mv openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-sa/4.0/
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:SEDICI (UNLP)
instname:Universidad Nacional de La Plata
instacron:UNLP
reponame_str SEDICI (UNLP)
collection SEDICI (UNLP)
instname_str Universidad Nacional de La Plata
instacron_str UNLP
institution UNLP
repository.name.fl_str_mv SEDICI (UNLP) - Universidad Nacional de La Plata
repository.mail.fl_str_mv alira@sedici.unlp.edu.ar
_version_ 1842260713377103872
score 13.13397