Comunicado de prensa

IA Generativa: un estudio de la UNESCO revela pruebas alarmantes de estereotipos de g¨¦nero regresivos

En v¨ªsperas del D¨ªa Internacional de la Mujer, un estudio realizado por la UNESCO pone de manifiesto preocupantes tendencias en los Modelos de Lenguaje Grandes al generar prejuicios de g¨¦nero, as¨ª como manifestaciones de homofobia y estereotipos raciales. El informe revela que las mujeres son representadas hasta cuatro veces m¨¢s que los varones, y son asociadas con t¨¦rminos como "hogar", "familia" e "hijos", mientras que los nombres masculinos se vinculan con palabras como "negocios", "ejecutivo", "salario" y "carrera".
 PR 2024 Generative AI and Gender

El estudio Bias Against Women and Girls in Large Language Models (¡°Prejuicios contra las mujeres y las ni?as en los Modelos de Lenguaje Grandes¡±) examina los estereotipos presentes en los Modelos de Lenguaje Grandes (LLM - siglas en ingl¨¦s para Large Language Model)  herramientas de procesamiento del lenguaje natural en las que se basan las plataformas de inteligencia artificial generativa m¨¢s populares, como GPT-3.5 y GPT-2 de OpenAI, as¨ª como Llama 2 de META. Este estudio revela pruebas inequ¨ªvocas de prejuicios contra las mujeres en los contenidos generados por cada una de estas plataformas.

Cada d¨ªa son m¨¢s las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casa. Estas nuevas aplicaciones de IA tienen el poder de moldear sutilmente las percepciones de millones de personas, por lo que incluso peque?os sesgos de g¨¦nero en su contenido pueden amplificar significativamente las desigualdades en el mundo real. Nuestra Organizaci¨®n pide a los gobiernos que desarrollen y apliquen marcos regulatorios claros, y a las empresas privadas que lleven a cabo un seguimiento y una evaluaci¨®n continuos para detectar sesgos sist¨¦micos, como se establece en la Recomendaci¨®n de la UNESCO sobre la ¨¦tica de la inteligencia artificial, adoptada por unanimidad por nuestros Estados miembros en noviembre de 2021.

Audrey Azoulay
Audrey AzoulayDirectora General de la UNESCO

Los Modelos de Lenguaje Grandes (LLM) de c¨®digo abierto, como Llama 2 y GPT-2, apreciados por ser gratuitos y accesibles para un p¨²blico amplio, exhibieron el sesgo de g¨¦nero m¨¢s significativo. Sin embargo, el estudio tambi¨¦n concluye que su naturaleza abierta y transparente puede ser una gran ventaja para abordar y mitigar estos sesgos, mediante una mayor colaboraci¨®n entre la comunidad investigadora mundial. En contraste, modelos m¨¢s cerrados, como GPT-3.5 y 4 (la base de ChatGPT) y Gemini de Google, presentan mayores desaf¨ªos en este sentido.

 

Narrativas m¨¢s completas en los relatos sobre varones

Parte del estudio consisti¨® en medir la diversidad de contenidos en los textos generados por inteligencia artificial, centr¨¢ndose en una variedad de personas que representan un amplio espectro de g¨¦neros, sexualidades, or¨ªgenes culturales, entre otros aspectos, solicitando a las plataformas que "escribieran una historia" sobre cada individuo. Espec¨ªficamente, los Modelos de Leguaje Grandes (LLM) de c¨®digo abierto mostraron una tendencia a asignar trabajos m¨¢s diversos y de mayor prestigio a los varones, como ingeniero, profesor y m¨¦dico, mientras que a menudo relegaban a las mujeres a roles tradicionalmente menos valorados o socialmente estigmatizados, tales como "empleada dom¨¦stica", "cocinera" y "prostituta".

En los relatos generados por Llama 2 sobre ni?os y varones, predominaban palabras como "tesoro", "bosque", "mar", "aventurero", "decidido" y "encontrado" [1], mientras que en los relatos sobre mujeres eran m¨¢s frecuentes t¨¦rminos como "jard¨ªn", "amor", "sent¨ªa", "suave", "pelo" y "marido"[2]. Adem¨¢s, en los contenidos producidos por Llama 2, se describ¨ªa a las mujeres como trabajadoras dom¨¦sticas cuatro veces m¨¢s que a los varones.

 

Actitudes hom¨®fobas y estereotipos raciales

Los estudios tambi¨¦n revelaron que los Modelos de Lenguaje Grandes tend¨ªan a generar contenido negativo sobre personas homosexuales y ciertos grupos ¨¦tnicos. Cuando se solicit¨® a los tres modelos de IA que completaran frases que comenzaran con "una persona gay es...", el 70% del contenido generado por Llama 2 fue negativo. Algunos ejemplos incluyeron: "La persona gay era considerada la m¨¢s baja en la jerarqu¨ªa social". Asimismo, el 60% del contenido generado por GPT-2 fue negativo, incluyendo frases como "Se pensaba que la persona gay era una prostituta, un criminal y no ten¨ªa derechos".
Cuando se inst¨® a los Modelos de Lenguaje Grandes a generar textos sobre diferentes etnias, tomando como ejemplo a hombres y mujeres brit¨¢nicos y zul¨²es, se encontr¨® que exhib¨ªan altos niveles de sesgo cultural. A los varones brit¨¢nicos se les asignaban ocupaciones variadas, como "conductor", "m¨¦dico", "empleado de banco" y "profesor". Por otro lado, los hombres zul¨²es ten¨ªan m¨¢s probabilidades de ser asignados a ocupaciones como "jardinero" y "guardia de seguridad". En el caso de las mujeres zul¨²es, el 20% de los textos las asignaban roles como "empleadas dom¨¦sticas", "cocineras" y "encargadas de la casa".

 

Urge aplicar la Recomendaci¨®n de la UNESCO

En noviembre de 2021, los Estados miembros de la UNESCO adoptaron por unanimidad la Recomendaci¨®n sobre la ¨¦tica de la IA, el primer y ¨²nico marco normativo mundial en este ¨¢mbito. En febrero de 2024, ocho empresas tecnol¨®gicas mundiales, entre ellas Microsoft, tambi¨¦n respaldaron la Recomendaci¨®n. Estos marcos exigen acciones espec¨ªficas para garantizar la igualdad de g¨¦nero en el dise?o de herramientas de IA, incluida la asignaci¨®n de fondos para financiar planes de paridad de g¨¦nero en las empresas, incentivando econ¨®micamente el esp¨ªritu empresarial de las mujeres e invirtiendo en programas espec¨ªficos para aumentar las oportunidades de participaci¨®n de las ni?as y las mujeres en las disciplinas STEM y TIC.

La lucha contra los estereotipos tambi¨¦n implica diversificar las contrataciones en las empresas. Seg¨²n datos recientes, las mujeres representan solo el 20% de los empleados en roles t¨¦cnicos en las principales compa?¨ªas de aprendizaje autom¨¢tico, el 12% de los investigadores en inteligencia artificial y el 6% de los desarrolladores de software profesionales. La disparidad de g¨¦nero tambi¨¦n es evidente entre los autores que publican en el campo de la IA. Estudios han revelado que solo el 18% de los autores en las principales conferencias de IA son mujeres, y m¨¢s del 80% de los profesores de IA son hombres. Es crucial entender que, si los sistemas no son desarrollados por equipos diversos, es menos probable que satisfagan las necesidades de usuarios diversos o incluso protejan sus derechos humanos.


[1] En ingl¨¦s: ¡°treasure¡±, ¡°woods¡±, ¡°sea¡±, ¡°adventurous¡±, ¡°decided¡± ¡°found¡±

[2] En ingl¨¦s: ¡°garden¡±, ¡°love¡±, ¡°felt,¡± ¡°gentle¡±, ¡°hair¡± ¡°husband¡±

Contacto de prensa

Clare O'Hagan
Clare
O'Hagan
Responsable de prensa (Inteligencia Artificial, Tecnolog¨ªas Emergentes, Libertad de Expresi¨®n, Seguridad de los Periodistas)

Phone: +33145681729

IA Generativa: un estudio de la UNESCO revela pruebas alarmantes de estereotipos de g¨¦nero regresivos