Sesgos machistas en herramientas de IA y algoritmos: ¿Cómo afectan el avance y desarrollo de las mujeres?
En conversación con Radio Pauta, Claudia López, investigadora del Centro Nacional de Inteligencia Artificial, se refirió a cómo los modelos de IA pueden provocar un posible “daño de las oportunidades que pueden obtener las personas”.
Fue hace más de una década cuando Amazon lanzó su herramienta de inteligencia artificial que facilitaba la contratación de desarrolladores de software. El modelo era capaz de procesar un alto número de currículums, los examinaba y luego elegía los cinco mejores profesionales para ser contratados. Sin embargo, la compañía se dio cuenta de que la máquina tenía un sesgo y discriminaba a las mujeres.
A la hora de examinar a los candidatos, la herramienta favorecía a los hombres para los puestos de carácter técnico. “El caso de la selección de personal es muy conocido porque fue uno de los primeros casos que se denunció como discriminación abierta hacia las mujeres”, dice Claudia López, investigadora del Centro Nacional de Inteligencia Artificial (CENIA), en conversación con Radio Pauta.
Sesgos machistas en herramientas de IA y algoritmos: ¿Cómo afectan el avance y desarrollo de las mujeres?
La experta explica que el modelo descartaba todo currículum que tuviese alguna referencia femenina. El caso llevó a que Amazon disolviera el 2017 el equipo que creó la inteligencia artificial.
Con el acceso masivo a los modelos de inteligencia artificial como los chatbots ChatGPT y Google Bard, e incluso la incorporación de estas herramientas en distintos sectores de la industria, López advierte sobre los sesgos que se pueden encontrar en estos modelos, convirtiéndose en un posible “daño de las oportunidades que pueden obtener las personas”.
La también académica de la Universidad Técnica Federico Santa María de Valparaíso declara que “los sesgos están de alguna manera metidos dentro de los conjuntos de datos que utiliza la inteligencia artificial hoy día para poder aprender y poder generar modelos que eventualmente vamos a usar, ya sea IA generativa o en predicciones de cosas que podrían pasar”.
La experta aclara que “nuestros comportamientos han sido sesgados como sociedad” por lo que “a veces esos tipos de sesgos nos hacen tomar decisiones dentro del proceso de desarrollo que podrían terminar replicándolos”.
Revisa la entrevista completa aquí: