Machismo y Racismo en la IA

Algoritmos machistas y racistas: el lado oscuro de la IA

redactor

0

La tecnología de la que tanto se comenta y que está suponiendo una revolución sin precedentes cuenta con un problema que más que tecnológico, muestra lo más deficiente del ser humano. 


La Inteligencia Artificial que ahora actúa por nosotros puede tener, al igual que los humanos, sesgos y prejuicios. Un quebradero de cabeza para quienes diseñan algoritmos que se ven obligados a reinterpretar su funcionalidad.


El experimento que desveló todo


El algoritmo Word2vec fue retado por un grupo de investigadores de la Universidad de Boston en 2016 con el motivo de desenmascarar a la Inteligencia Artificial. Pues bien, el algoritmo que se nutre de un gran volumen de noticias y textos de Internet fue puesto a prueba obligándole a responder a la siguiente cuestión:


“El hombre es al programador informático lo que la mujer es a …” Obligándole a continuar la frase. 


Mediante este algoritmo se consigue identificar sinónimos, establecer analogías en base a criterios estadísticos ya aparezcan juntas o separadas las palabras en el discurso: hombre y mujer, padre y madre, rey y reina, etc. Pues bien, la respuesta del algoritmo fue ama de casa”. 


Si, el algoritmo Word2vec reproduce sesgos y prejuicios más propios del lado más oscuro del ser humano cuando su misión es arrojar luz.


No es el único algoritmo con sesgos y prejuicios


Las herramientas de Inteligencia Artificial generativa están viendo entre sus resultados que estos sesgos y prejuicios de Word2vec también se está produciendo en otros algoritmos. Así Ask Delphi, un chat que ofrece consejos éticos emitía juicios de valor machistas y racistas. El más que conocido ChatGPT también cuenta chistes de índole sexista y homófoba. 


Surge aquí el dilema:

¿La autonomía de la Inteligencia Artificial es suficiente para oponerse a estos sesgos o simplemente muestran como somos los humanos como si fuese un espejo?


Los algoritmos trabajan con datos y su misión principal es ofrecer una respuesta lo más cercana posible a la realidad. Así, existen datos aportados por las personas influidos por factores como la brecha digital o la representación de colectivos vulnerables. Además, habría que sumar los sesgos propios de quienes trabajan en el desarrollo de las inteligencias artificiales.


Al no existir un código deontológico que regule el tratamiento de estos datos, son los sistemas de creencias humanos quienes provocan que la Inteligencia Artificial no tenga en cuenta la diversidad que existe en el mundo.


Un problema más serio de lo que parece


Los investigadores que se centran en los aspectos éticos de la Inteligencia Artificial generativa han encontrado algoritmos que identifican y clasifincan a los hombres blancos de una forma más fidedigna. También se ha observado que se crean atributos físicos teniendo en cuenta creencias falsas o asociaban el estereotipo de masculinidad y feminidad conforme a las ciencias y las artes. 


Todos estos resultados esclarecen que esta tecnología tiene como limitante al pasado. Es decir, los datos de los que se nutren los algoritmos no se basan en cosas nuevas, sino en datos del pasado. Incluso, todo lo nuevo se representa de forma errónea y tendiendo a posturas conservadoras. De esta forma, los resultados no reproducen lo existente o no pueden elaborar cosas nuevas.

 

Titulaciones que pueden interesarte

Solicitar información

image

¿Tienes alguna duda?

Pais
Información básica sobre Protección de Datos . Haz clic aquí 
Articulos relacionados
Apatía

Calma excesiva. Pocas ganas de conversar. Mirada perdida. Ausencia. Falta de interés por lo que le rodea. ¿Te suena? Estos podrían ser, sin ninguna duda, típicos síntomas de apatía.

globalización en el derecho

La globalización ha transformado muchos ámbitos de nuestra vida de unos años a esta parte. Desde la economía y el comercio hasta las tecnologías y comunicaciones, pasando por otros sectores, como el cultural o el medioambiental.

Pirámide de Kelsen

¿Alguna vez te has parado a pensar que, históricamente, se han utilizado las pirámides para representar jerarquías o estructuras?

image

¿Tienes alguna duda?

Pais
Información básica sobre Protección de Datos . Haz clic aquí