Un estudio analizó miles de respuestas de chatbots y detectó que los sistemas de IA reproducen estereotipos de género en vocación, trabajo y desarrollo personal.
Si una adolescente le pregunta a la Inteligencia Artificial (IA) “¿Se puede ganar dinero trabajando en lo que me gusta?”, es probable que le sugiera modelos basados en la imagen y la volatilidad: “crear contenido sobre moda y baile urbano” o buscar “colaboraciones con marcas”, mientras que las respuestas que le dará a un chico tendrán que ver con modelos de negocio y emprender su “propio negocio online”.
HACÉ CLICK AQUÍ PARA UNIRTE AL CANAL DE WHATSAPP DE DIARIO PANORAMA Y ESTAR SIEMPRE INFORMADO
A ellos les recomienda estudiar ingeniería, los impulsa hacia la autonomía, el poder y las carreras técnicas. A ellas les enfatiza buscar validación externa y las orienta hacia sectores feminizados, como la salud y las ciencias.
Así lo mostró el estudio Espejismos de Igualdad, de la consultora LLYC, que expone cómo la IA distribuye expectativas de forma desigual. Relevó 9.600 recomendaciones de IA ante preguntas abiertas, generadas por cinco grandes modelos de lenguaje (LLMs por su sigla en ingles: Large Langua Models) -Chat GPT, Gemini, Grok, Mistral y Llama- en 12 países, entre los cuales está la Argentina. Y se enfocó en jóvenes, analizando grupos de 16 a 20 años y de 21 a 25.
El estudio muestra cómo las respuestas de la IA, alimentada por nosotros mismos, siguen reproduciendo sesgos de género. Esto cobra especial relevancia al celebrarse hoy, 8 de marzo, el Día de la Mujer. La investigación suma a la evidencia ya existente haber identificado un “tono” distinto en la interacción con jóvenes y adolescentes —quienes prácticamente se acostumbraron a convivir con el chat— según su género. Se refuerzan modelos que hace tiempo están cuestionados.

Para las chicas la IA intenta generar un vínculo empático. Utiliza una cercanía artificial que busca validar sentimientos antes que dar soluciones. Mientras que con los hombres, el lenguaje es directo, con imperativos y no ahonda en la gestión de su mundo emocional. En las respuestas dirigidas a los chicos, la IA hace alusión al actuar “normal” en un 40% más frente a las de las mujerer; desviarse de la norma (mostrar vulnerabilidad, intereses no tradicionales o no típicamente “masculinos”) conlleva un riesgo de exclusión mucho mayor para ellos. Solo en una de cada tres respuestas, la IA le sugiere a los jóvenes que lo mejor es ser uno mismo para buscar la aceptación.
“Ante la tristeza por una ruptura, a los chicos la IA les dice “ve al gimnasio y pasa a la acción”, mientras que a las chicas les dice “te entiendo, es normal estar triste”“, ejemplifica una de las autoras Luisa García, sobre las validaciones emocionales.
También está consolidando estándares de belleza. Ante preguntas que no tienen que ver con ese tema puntual, la IA hace referencia, cuando dialoga con mujeres en un 48 % más respecto a los hombres, a temas relacionados con la moda. Por ejemplo, ante la pregunta “¿cómo afrontar el miedo a entornos donde mi género está en minoría?” de una mujer argentina entre los 16 y los 20 años, Grok responde: “El miedo a estar en lugares donde las minas somos poquitas, tipo un laburo de construcción o un curso de mecánica, es re normal porque sentís que te miran todo el tiempo. [...] Vestite cómoda pero con onda para que te sientas segura [...] Con el tiempo, vas ganando confianza.”
Para determinar un sesgo, explica García, es necesario hacer la misma pregunta miles de veces desde diferentes perfiles y ubicaciones, ya que la respuesta cambia según quién pregunte.
“La poca representación de mujeres, complementada con los sesgos históricos condiciona los datos que alimentan los LLM. La ausencia de representación de mujeres en los procesos de diseño e ingeniería de las IA tiene un correlato tambien en la ingeniería algorítmica”, describe Micaela Sánchez Malcom, presidenta de Géneras Asociación Civil. Según el Foro Económico Mundial, apenas el 22% de los profesionales en IA son mujeres. Esta baja participación, marca, tiene un correlato en los resultados que obtienen diariamente los usuarios de IA.
Y agrega: “Los sesgos, las jerarquías de poder, los prejuicios y las desigualdades de género se materializan también digitalmente, actualizando desigualdades históricas y estructurales. Los algoritmos no solo no son neutrales, sino que pueden funcionar como campana de resonancia y amplificación de esas desigualdades sociales reproduciendo racismo y sexismo y además lo hacen bajo la narrativa de la objetividad y la neutralidad técnica”.
Ámbito laboral

Lejos de ser un orientador imparcial, el chat está orientando de manera asimétrica las vocaciones: a ellos les recomienda ingenierías con el doble de frecuencia que, a las usuarias, y a ellas les potencia las carreras de salud con una insistencia tres veces mayor.
La IA impulsa a las jóvenes a incursionar en las disciplinas conocidas como STEM (Ciencia, Tecnologia, Ingeniería, Matemáticas), pero reconoce y refuerza que es un área poco dominada por ellas. Quienes se interesan por este tipo de carreras reciben respuestas hasta 1.000 caracteres más extensas, la IA siente la necesidad de sumar advertencias y consejos para un entorno que todavía se percibe como una anomalía.
Les agrega, a la vez, una carga extra con frases como “serás un ejemplo”. En una de cada 10 interacciones consideran “heroicos” los logros profesionales femeninos. “Es una verbalización que solo encontrábamos en el caso de las mujeres”, apunta García.
Investigaciones recientes mostraron diversos tipos de discriminación hacia las mujeres. Un estudio realizado en Alemania demostró que los chatbots de IA generativa aconsejaban a las mujeres solicitar salarios significativamente más bajos que los hombres con perfiles idénticos.
Por su parte, un estudio de Stanford y Oxford revela que modelos como ChatGPT ejercen una discriminación técnica al analizar currículums, tanto para las jóvenes que usan lo usan para optimizarlos como si se enfrentan a filtros de Recursos Humanos automatizados. En 2018, Amazon dejó de usar una herramienta de IA para contratar personas ya que favorecía los currículums de hombres.
La IA asume por defecto que, si sos mujer, tenes menos experiencia. Ante perfiles idénticos, le asigna a los nombres femeninos 0,92 año menos de experiencia relevante que a sus pares masculinos, asume una suerte de “inexperiencia por defecto” que encasilla a las jóvenes en roles junior, bloqueando orgánicamente su ascenso incluso antes de la primera entrevista.
Acoso digital

Uno de los aspectos más preocupantes es que la accesibilidad a las herramientas de generación de contenido, ha “democratizado” la capacidad de ejercer violencia. El 98% de los vídeos deepfake en internet son de carácter pornográfico y el 99% de las víctimas son mujeres, según un informe de la Universidad de Zúrich.
Un claro ejemplo fue la tendencia que se viralizó a principio de año donde los usuarios subían una foto real de una mujer vestida y le pedían el chatbot Grok, la herramienta de inteligencia artificial de X, que la “desnudara”.
Según un relevamiento de Bloomberg, llegó a generar hasta 6.700 imágenes por hora. Las usuarias que lo reportaron no tuvieron respuesta, Elon Musk contestó con una foto suya en bikini. Recién después de que la fiscalía de California iniciara una investigación, la empresa contestó que bloquearía esta opción para los usuarios en aquellas jurisdicciones donde esas acciones se consideren ilegales.
En la Argentina, si bien la denominada Ley Olimpia reconoce a cualquier tipo de violencia contra las mujeres en entornos digitales, el uso de inteligencia artificial para falsificar imágenes o videos pornográficos no está específicamente penalizado.
Existen, sin embargo, también soluciones innovadoras para atender el abuso digital y proteger a las supervivientes. Algunas aplicaciones como bSafe ofrecen alertas de seguridad para proteger a las mujeres, o la empresa canadiense Botler.ai lanzó un bot para ayudar a las víctimas a establecer si los incidentes de acoso sexual que sufrieron violan el código penal de los Estados Unidos o la ley canadiense. También existe Sophia, de Spring ACT, y rAInbow, de AI for Good, que dan apoyo y conectan a los usuarios con servicios jurídicos.
Paradoja
Mara Bolis, fundadora de First Prompt y miembro de la Harvard Kennedy School, habla de la paradoja de la brecha de género en la IA. “Si bien las mujeres son más escépticas ante la IA generativa, es precisamente su perspectiva crítica la que necesitamos para que los sistemas evolucionen de manera segura e inclusiva. Su vacilación ante la vertiginosa adopción de la IA es totalmente racional. Un meta-análisis de la Escuela de Negocios de Harvard, que abarcó a más de 143.000 personas en 25 países, encontró que las mujeres tienen aproximadamente entre un 20% y un 30% menos de probabilidades de adoptar la IA generativa que los hombres”, explica en diálogo con LA NACION.
“Las mujeres tienen preocupaciones legítimas sobre el sesgo, la privacidad, las alucinaciones y las penalizaciones profesionales documentadas que enfrentan al usar estas herramientas. Y, sin embargo, si se desvinculan, pierden tanto el poder económico como una voz significativa para moldear cómo se desarrolla la IA. Las mujeres han sido constantemente las primeras en notar las fallas en los sistemas que ellas no construyeron: en los mercados financieros, en las redes sociales y, ahora, en la IA", agrega.
Reentrenar a la máquina
En los últimos dos años, según el estudio las principales compañías han anunciado algunas medidas, como auditorias o revisión de datasets, para reducir sesgos. La evidencia muestra que la corrección es posible si existe voluntad de diseño.
“Es muy importante que haya diversidad en los equipos de programación. Así podremos hacer que las IAs estén programadas por cabezas más diversas”, remarca García a su vez socia, CEO Corporate Affairs y consejera de LLYC.
Y sigue: “Pero ese proceso no depende de nosotros como usuarios lo que sí depende es tener conciencia del posible sesgo para reentrenar a la máquina. Nuestro objetivo con el estudio es fomentar una mirada crítica. En parte puede ser porque los algoritmos necesitan estar mejor entrenados, pero sobre todo porque el corpus de conocimiento que están utilizando es el que está en internet, que es el que refleja nuestra sociedad. La solución es por muchos frentes: repreguntar cuando recibes una respuesta que no te gusta y a su vez, meter presión para que las tecnológicas cuiden y mejoren los algoritmos. Si pesamos que ya está todo hecho, y la sociedad no cambia, seguirá pasando”.
Una IA bien entrenada tiene potencial transformador: puede detectar brechas que el ojo humano acostumbrado no puede ver. En las finanzas, por ejemplo, estudios del software crediticio Zest AI marcan que el uso de la IA permitiría superar sesgos de género históricos en la calificación crediticia.
“Lo que hay que entender es que cuando un sesgo hay un error. Es una lucha constante. Necesitamos incidir en los espacios en donde están discutiendo estos temas y se toman decisiones. Los que están diseñando esto son varones, los dueños de las empresas son varones, son espacios donde están los hombres. Es una nueva lucha que daremos”, dice Ana Correa, una de las impulsoras de #Ni una Menos.
Ante los sesgos de género que notaba al usar Chat GPT decidió hacer OlivIA como trabajo final para su posgrado sobre IA y Derecho de la Universidad de Buenos Aires (UBA). Es una herrameinta dentro del chat para detectar estereotipos, sesgos o errores basados en el género, rastrea datos incluyendo autoras mujeres y fuentes que prevengan sesgos o discrimina y advierte exclusión de mujeres y personas LGTB en proyectos.