Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género
- Autores
- Ribeiro Mota, Denysson Axel; Martins, Gracy Kelli; Braga Sampaio, Denise
- Año de publicación
- 2024
- Idioma
- español castellano
- Tipo de recurso
- documento de conferencia
- Estado
- versión publicada
- Descripción
- Siguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificar sesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: [white], [black], [a man], [a woman], [a firefighter], [a nurse], [a doctor], [an inmate], escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías.
Facultad de Humanidades y Ciencias de la Educación - Materia
-
Bibliotecología
Inteligencia artificial
redes neuronales generativas
algoritmos racistas - Nivel de accesibilidad
- acceso abierto
- Condiciones de uso
- http://creativecommons.org/licenses/by-nc-sa/4.0/
- Repositorio
- Institución
- Universidad Nacional de La Plata
- OAI Identificador
- oai:sedici.unlp.edu.ar:10915/181205
Ver los metadatos del registro completo
id |
SEDICI_ca803612fb2e1777264a1fcb9061f646 |
---|---|
oai_identifier_str |
oai:sedici.unlp.edu.ar:10915/181205 |
network_acronym_str |
SEDICI |
repository_id_str |
1329 |
network_name_str |
SEDICI (UNLP) |
spelling |
Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y géneroRibeiro Mota, Denysson AxelMartins, Gracy KelliBraga Sampaio, DeniseBibliotecologíaInteligencia artificialredes neuronales generativasalgoritmos racistasSiguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificar sesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: [white], [black], [a man], [a woman], [a firefighter], [a nurse], [a doctor], [an inmate], escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías.Facultad de Humanidades y Ciencias de la Educación2024info:eu-repo/semantics/conferenceObjectinfo:eu-repo/semantics/publishedVersionObjeto de conferenciahttp://purl.org/coar/resource_type/c_5794info:ar-repo/semantics/documentoDeConferenciaapplication/pdfhttp://sedici.unlp.edu.ar/handle/10915/181205spainfo:eu-repo/semantics/altIdentifier/url/http://jornadabibliotecologia.fahce.unlp.edu.ar/jornadas-2024/actas/ponencia-241216141017224298/@@display-file/file/Mesa 9_Mota.pdfinfo:eu-repo/semantics/altIdentifier/issn/1853-5631info:eu-repo/semantics/openAccesshttp://creativecommons.org/licenses/by-nc-sa/4.0/Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)reponame:SEDICI (UNLP)instname:Universidad Nacional de La Platainstacron:UNLP2025-09-03T11:20:45Zoai:sedici.unlp.edu.ar:10915/181205Institucionalhttp://sedici.unlp.edu.ar/Universidad públicaNo correspondehttp://sedici.unlp.edu.ar/oai/snrdalira@sedici.unlp.edu.arArgentinaNo correspondeNo correspondeNo correspondeopendoar:13292025-09-03 11:20:45.813SEDICI (UNLP) - Universidad Nacional de La Platafalse |
dc.title.none.fl_str_mv |
Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
title |
Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
spellingShingle |
Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género Ribeiro Mota, Denysson Axel Bibliotecología Inteligencia artificial redes neuronales generativas algoritmos racistas |
title_short |
Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
title_full |
Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
title_fullStr |
Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
title_full_unstemmed |
Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
title_sort |
Sesgos en inteligencia artificial: un estudio sobre la generación de imágenes a partir de comandos de raza/etnia y género |
dc.creator.none.fl_str_mv |
Ribeiro Mota, Denysson Axel Martins, Gracy Kelli Braga Sampaio, Denise |
author |
Ribeiro Mota, Denysson Axel |
author_facet |
Ribeiro Mota, Denysson Axel Martins, Gracy Kelli Braga Sampaio, Denise |
author_role |
author |
author2 |
Martins, Gracy Kelli Braga Sampaio, Denise |
author2_role |
author author |
dc.subject.none.fl_str_mv |
Bibliotecología Inteligencia artificial redes neuronales generativas algoritmos racistas |
topic |
Bibliotecología Inteligencia artificial redes neuronales generativas algoritmos racistas |
dc.description.none.fl_txt_mv |
Siguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificar sesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: [white], [black], [a man], [a woman], [a firefighter], [a nurse], [a doctor], [an inmate], escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías. Facultad de Humanidades y Ciencias de la Educación |
description |
Siguiendo los estudios científicos sobre sesgos presentes en algoritmos, después de investigar la influencia en la creación de algoritmos del hecho que, en Brasil, la mayoría de los programadores está compuesta por hombres blancos, cisgénero, heterosexuales, solteros, de mediana edad y sin hijos, este trabajo es el primero de una serie de otros que buscan identificar sesgos en herramientas específicas, en este caso investigando la generación de imágenes por inteligencia artificial (IA). La metodología incluye un enfoque bibliográfico-documental, búsqueda de evidencias encontradas en otras investigaciones sobre sesgos en herramientas digitales y temas similares, seguido de un análisis descriptivo de las imágenes generadas con la herramienta BlueWillow, elegida por ser una herramienta aún no discutido en otras investigaciones y porque era gratuito. Las pruebas se realizaron inicialmente con comandos en inglés y sin asignar género, el idioma fue escogido por el género neutro en profesiones y otros elementos lingüísticos ser algo intrínseco a la lengua. Las palabras utilizadas fueron: [white], [black], [a man], [a woman], [a firefighter], [a nurse], [a doctor], [an inmate], escogidas por ya haber sido identificadas, en la literatura, como propensas a la atribución de sesgo en algoritmos. Los resultados fueron evaluados con la asignación automática de género y raza de la plataforma, y apuntan a la presencia de sesgos, pero requiere mayor investigación, abarcando bases de entrenamiento, prácticas científicas y otras posibles causas. El estudio destaca la importancia de políticas y directrices que promuevan la equidad y la justicia informacional en el desarrollo de estas tecnologías. |
publishDate |
2024 |
dc.date.none.fl_str_mv |
2024 |
dc.type.none.fl_str_mv |
info:eu-repo/semantics/conferenceObject info:eu-repo/semantics/publishedVersion Objeto de conferencia http://purl.org/coar/resource_type/c_5794 info:ar-repo/semantics/documentoDeConferencia |
format |
conferenceObject |
status_str |
publishedVersion |
dc.identifier.none.fl_str_mv |
http://sedici.unlp.edu.ar/handle/10915/181205 |
url |
http://sedici.unlp.edu.ar/handle/10915/181205 |
dc.language.none.fl_str_mv |
spa |
language |
spa |
dc.relation.none.fl_str_mv |
info:eu-repo/semantics/altIdentifier/url/http://jornadabibliotecologia.fahce.unlp.edu.ar/jornadas-2024/actas/ponencia-241216141017224298/@@display-file/file/Mesa 9_Mota.pdf info:eu-repo/semantics/altIdentifier/issn/1853-5631 |
dc.rights.none.fl_str_mv |
info:eu-repo/semantics/openAccess http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) |
eu_rights_str_mv |
openAccess |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:SEDICI (UNLP) instname:Universidad Nacional de La Plata instacron:UNLP |
reponame_str |
SEDICI (UNLP) |
collection |
SEDICI (UNLP) |
instname_str |
Universidad Nacional de La Plata |
instacron_str |
UNLP |
institution |
UNLP |
repository.name.fl_str_mv |
SEDICI (UNLP) - Universidad Nacional de La Plata |
repository.mail.fl_str_mv |
alira@sedici.unlp.edu.ar |
_version_ |
1842260713377103872 |
score |
13.13397 |