La Inteligencia Artificial está en todas partes. Lo que hasta hace un tiempo tenía un uso más bien acotado o limitado a sectores más técnicos, hoy es pan de cada día para millones de seres humanos que utilizan herramientas amparadas en esta tecnología, en sus trabajos o en su vida personal.
Obviamente, el crecimiento exponencial del uso de estos recursos no ha estado exento de polémicas y una de ellas tiene que ver con los sesgos de género que pueden ser reproducidos por distintas formas por la Inteligencia Artificial.
En 2018, por ejemplo, Amazon estaba trabajando en un sistema de IA que ayudaba a revisar los currículums de las personas que buscaban empleo en la empresa, pero dejaron de utilizarlo al percatarse de que el programa tendía a seleccionar a más hombres que mujeres. Ese caso fue uno de los primeros en poner en evidencia que el aprendizaje automático también podía tener sesgos machistas, pero ha habido más.
Otro ejemplo: en 2019, la empresa de salud virtual Babylon Health fue criticada porque su sistema de diagnóstico online funcionaba de manera mucho más detallada cuando se trataba de pacientes hombres que de pacientes mujere
En una línea similar, diversos estudios han demostrado que las tecnologías de reconocimiento facial tienen mucha mayor precisión cuando son utilizadas por hombres blancos, perdiendo efectividad cuando se trata de mujeres y aún más si ellas tienen la piel oscura.
A estos ejemplos se suman otro tipo de controversias, más ligadas a la forma, como las críticas que se suelen hacer a que los sistemas de asistencia personal como Siri o Alexa tengan predeterminada el uso de una voz femenina.
Consultadas por Piensa Digital, tres expertas en materias de Inteligencia Artificial nos ayudaron a descifrar por qué una y otra vez estas herramientas parecieran caer en los mismos conflictos.
Una de las principales razones es que el aprendizaje automático de estos sistemas siempre es sobre la base de información que sale de los humanos, que son quienes pueden tener incorporados ciertos sesgos.
“Ahora trabajamos, nos comunicamos y nos conectamos en el ciberespacio. Tenemos un montón de nuevas actividades desarrollándose ahí que son súper positivas, que nos traen un montón de ventajas, y nuevas oportunidades que antes no existían. Pero también tenemos un montón de problemáticas no saldadas en el espacio físico, en la sociedad común y corriente que también van transitando hacia estos espacios. Tenemos racismo, tenemos xenofobia, tenemos adultocentrismo, tenemos machismo y violencia de género”, describe Valentina Muñoz, programadora y activista por los derechos digitales, más conocida como Chica Rosadita.
“Son cosas que siguen existiendo en nuestra comunidad y que al momento de ingresar al ciberespacio entran con nosotros, porque así somos los humanos”, agrega
Francisca Yáñez, National Technology Officer de Microsoft, la complementa: “Los sesgos que pueden generarse como resultado de un modelo de inteligencia artificial provienen de los datos con que nosotros alimentamos al modelo.
No es que inteligencia artificial espontáneamente genere sesgos, sino que nosotros entrenamos modelos, y si cuando se entrena un modelo de inteligencia artificial ese aprendizaje absorbe data con sesgo, va a reproducir las respuestas luego con esos sesgos que vienen del origen de los datos”, dice.
Yáñez ejemplifica: “Imagínate si tú a tus hijos les enseñas de una manera, luego ellos, cuando tú no estés, van a replicar esos hábitos y algunos de ellos van a ser positivos y otros negativos. Lo mismo si nos vamos al mundo de la Inteligencia Artificial. La IA necesita un alto volumen de data, pero si ese alto volumen de data tiene esos sesgos de origen, los va a replicar con su respuesta”.
Por otro lado, más allá de los datos con los que se entrena una IA, otro punto que podría estar afectando en los resultados finales es el poco porcentaje de mujeres que se desempeña en trabajos relacionados al área STEM, las siglas en inglés para ciencia, tecnología, ingeniería y matemáticas.
“Claramente la cantidad de mujeres que están interesadas en esta área es muy baja, teniendo en consideración que hay muy pocas mujeres en la ciencia y en la computación como tal. Por lo mismo, es muy poco probable que alguna chica elija hacer un magíster en área de Inteligencia Artificial y machine learning”, dice Catalina Arrey, coordinadora del pilar de tecnología y robótica de la Academia Atómicas, un proyecto del colectivo Tremendas que educa en temas de ciencia y tecnología.
Según Arrey, las consecuencias de esta baja presencia femenina terminan siendo que las preocupaciones, intereses o el enfoque de más de la mitad de la población mundial quede subrepresentado en el terreno tecnológico. “Hay información que a la mayoría de los hombres realmente no les va a interesar limpiar porque no necesariamente les afecta. Eso genera que esta barrera del sesgo de género, donde hay diferencias entre los hombres y las mujeres sea muchísimo más grande”.
Tanto Chica Rosadita como Francisca Yáñez y Catalina Arrey concuerdan en que los entrenamientos a modelos de Inteligencia Artificial sí pueden incluir ciertas consideraciones o correcciones de género o cualquier otro sesgo existente.
“Por eso es importante que involucremos a las mujeres en la ciencia y la tecnología, especialmente en la Inteligencia Artificial y el machine learning. Es posible agregarle filtros a un algoritmo para que no busque lo primero que le aparezca o que genere una respuesta sin sesgos de género, pero es importante que haya una persona que realmente le importe esto, que realmente sienta que hay que involucrarlo porque es importante”, dice Arrey.
Por su lado, Chica Rosadita, quien también es Defensora de los Objetivos de Desarrollo Sostenible de la ONU, enfatiza en la importancia de los datos utilizados para entrenar estos modelos. “Yo defiendo mucho la idea de que necesitamos menos Big Data y más data diversa, porque lo que importa es que tengamos una data que nos sirva para la representación del grupo humano al que nos estamos dirigiendo”, explica.
“Si vamos a hacer una inteligencia artificial para todo público, todo público es todo el mundo literalmente, y en el mundo un 51% de los seres humanos corresponden al sexo femenino. Así que si vamos a alimentar a una inteligencia artificial tenemos que darle los datos de un 51% mujeres, un 49% hombres. Además tenemos que hablar de porcentajes respecto a las infancias y a los adultos mayores”, ejemplifica Valentina Muñoz.
La activista también agrega que es importante incluir estas problemáticas en las legislaciones venideras en relación al tema. “Las políticas públicas deben mantenerse en constante crítica y actualización, y creo que también es importante que sean efectivas en términos de género y tecnología”.
Con respecto a esto último, Francisca Yáñez enfatiza en la importancia de que los desarrolladores de este tipo de tecnologías también lo hagan bajo cierta ética. “Hay ciertos principios éticos que incluso van antes de la regulación, porque esta tiene un ritmo que jamás va a ser el ritmo del desarrollo tecnológico. El desarrollo tecnológico tiene una velocidad vertiginosa y la regulación y las leyes tienen una velocidad más lenta, porque requieren discusión, acuerdo. Por eso, los principios en Inteligencia Artificial son fundamentales”, opina.