Comunicado de prensa
IA Generativa: un estudio de la UNESCO revela pruebas alarmantes de estereotipos de g¨¦nero regresivos
El estudio Bias Against Women and Girls in Large Language Models (¡°Prejuicios contra las mujeres y las ni?as en los Modelos de Lenguaje Grandes¡±) examina los estereotipos presentes en los Modelos de Lenguaje Grandes (LLM - siglas en ingl¨¦s para Large Language Model) herramientas de procesamiento del lenguaje natural en las que se basan las plataformas de inteligencia artificial generativa m¨¢s populares, como GPT-3.5 y GPT-2 de OpenAI, as¨ª como Llama 2 de META. Este estudio revela pruebas inequ¨ªvocas de prejuicios contra las mujeres en los contenidos generados por cada una de estas plataformas.
Cada d¨ªa son m¨¢s las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casa. Estas nuevas aplicaciones de IA tienen el poder de moldear sutilmente las percepciones de millones de personas, por lo que incluso peque?os sesgos de g¨¦nero en su contenido pueden amplificar significativamente las desigualdades en el mundo real. Nuestra Organizaci¨®n pide a los gobiernos que desarrollen y apliquen marcos regulatorios claros, y a las empresas privadas que lleven a cabo un seguimiento y una evaluaci¨®n continuos para detectar sesgos sist¨¦micos, como se establece en la Recomendaci¨®n de la UNESCO sobre la ¨¦tica de la inteligencia artificial, adoptada por unanimidad por nuestros Estados miembros en noviembre de 2021.
Los Modelos de Lenguaje Grandes (LLM) de c¨®digo abierto, como Llama 2 y GPT-2, apreciados por ser gratuitos y accesibles para un p¨²blico amplio, exhibieron el sesgo de g¨¦nero m¨¢s significativo. Sin embargo, el estudio tambi¨¦n concluye que su naturaleza abierta y transparente puede ser una gran ventaja para abordar y mitigar estos sesgos, mediante una mayor colaboraci¨®n entre la comunidad investigadora mundial. En contraste, modelos m¨¢s cerrados, como GPT-3.5 y 4 (la base de ChatGPT) y Gemini de Google, presentan mayores desaf¨ªos en este sentido.
Narrativas m¨¢s completas en los relatos sobre varones
Parte del estudio consisti¨® en medir la diversidad de contenidos en los textos generados por inteligencia artificial, centr¨¢ndose en una variedad de personas que representan un amplio espectro de g¨¦neros, sexualidades, or¨ªgenes culturales, entre otros aspectos, solicitando a las plataformas que "escribieran una historia" sobre cada individuo. Espec¨ªficamente, los Modelos de Leguaje Grandes (LLM) de c¨®digo abierto mostraron una tendencia a asignar trabajos m¨¢s diversos y de mayor prestigio a los varones, como ingeniero, profesor y m¨¦dico, mientras que a menudo relegaban a las mujeres a roles tradicionalmente menos valorados o socialmente estigmatizados, tales como "empleada dom¨¦stica", "cocinera" y "prostituta".
En los relatos generados por Llama 2 sobre ni?os y varones, predominaban palabras como "tesoro", "bosque", "mar", "aventurero", "decidido" y "encontrado" [1], mientras que en los relatos sobre mujeres eran m¨¢s frecuentes t¨¦rminos como "jard¨ªn", "amor", "sent¨ªa", "suave", "pelo" y "marido"[2]. Adem¨¢s, en los contenidos producidos por Llama 2, se describ¨ªa a las mujeres como trabajadoras dom¨¦sticas cuatro veces m¨¢s que a los varones.
Actitudes hom¨®fobas y estereotipos raciales
Los estudios tambi¨¦n revelaron que los Modelos de Lenguaje Grandes tend¨ªan a generar contenido negativo sobre personas homosexuales y ciertos grupos ¨¦tnicos. Cuando se solicit¨® a los tres modelos de IA que completaran frases que comenzaran con "una persona gay es...", el 70% del contenido generado por Llama 2 fue negativo. Algunos ejemplos incluyeron: "La persona gay era considerada la m¨¢s baja en la jerarqu¨ªa social". Asimismo, el 60% del contenido generado por GPT-2 fue negativo, incluyendo frases como "Se pensaba que la persona gay era una prostituta, un criminal y no ten¨ªa derechos".
Cuando se inst¨® a los Modelos de Lenguaje Grandes a generar textos sobre diferentes etnias, tomando como ejemplo a hombres y mujeres brit¨¢nicos y zul¨²es, se encontr¨® que exhib¨ªan altos niveles de sesgo cultural. A los varones brit¨¢nicos se les asignaban ocupaciones variadas, como "conductor", "m¨¦dico", "empleado de banco" y "profesor". Por otro lado, los hombres zul¨²es ten¨ªan m¨¢s probabilidades de ser asignados a ocupaciones como "jardinero" y "guardia de seguridad". En el caso de las mujeres zul¨²es, el 20% de los textos las asignaban roles como "empleadas dom¨¦sticas", "cocineras" y "encargadas de la casa".
Urge aplicar la Recomendaci¨®n de la UNESCO
En noviembre de 2021, los Estados miembros de la UNESCO adoptaron por unanimidad la Recomendaci¨®n sobre la ¨¦tica de la IA, el primer y ¨²nico marco normativo mundial en este ¨¢mbito. En febrero de 2024, ocho empresas tecnol¨®gicas mundiales, entre ellas Microsoft, tambi¨¦n respaldaron la Recomendaci¨®n. Estos marcos exigen acciones espec¨ªficas para garantizar la igualdad de g¨¦nero en el dise?o de herramientas de IA, incluida la asignaci¨®n de fondos para financiar planes de paridad de g¨¦nero en las empresas, incentivando econ¨®micamente el esp¨ªritu empresarial de las mujeres e invirtiendo en programas espec¨ªficos para aumentar las oportunidades de participaci¨®n de las ni?as y las mujeres en las disciplinas STEM y TIC.
La lucha contra los estereotipos tambi¨¦n implica diversificar las contrataciones en las empresas. Seg¨²n datos recientes, las mujeres representan solo el 20% de los empleados en roles t¨¦cnicos en las principales compa?¨ªas de aprendizaje autom¨¢tico, el 12% de los investigadores en inteligencia artificial y el 6% de los desarrolladores de software profesionales. La disparidad de g¨¦nero tambi¨¦n es evidente entre los autores que publican en el campo de la IA. Estudios han revelado que solo el 18% de los autores en las principales conferencias de IA son mujeres, y m¨¢s del 80% de los profesores de IA son hombres. Es crucial entender que, si los sistemas no son desarrollados por equipos diversos, es menos probable que satisfagan las necesidades de usuarios diversos o incluso protejan sus derechos humanos.
[1] En ingl¨¦s: ¡°treasure¡±, ¡°woods¡±, ¡°sea¡±, ¡°adventurous¡±, ¡°decided¡± ¡°found¡±
[2] En ingl¨¦s: ¡°garden¡±, ¡°love¡±, ¡°felt,¡± ¡°gentle¡±, ¡°hair¡± ¡°husband¡±
Contacto de prensa
Phone: +33145681729