Noticia

DICTAMEN – Justicia Algorítmica. Una Inteligencia Artificial ética para América Latina y el Caribe

CLACSO y UNESCO Ecuador anuncian las propuestas seleccionadas en la convocatoria de investigación
Justicia_algoritmica_01

Buenos Aires y Quito, 3 de diciembre de 2024

CLACSO y UNESCO Ecuador anuncian las propuestas seleccionadas en la convocatoria de investigación: Justicia Algorítmica. Una Inteligencia Artificial ética para América Latina y el Caribe, cuyo objetivo principal es la producción de Policy Briefs que promuevan la sinergia entre investigación académica y toma de decisiones públicas informadas, a través de la elaboración de análisis, recomendaciones de política y acciones de intervención social basadas en el uso ético y responsable de la IA.

Se abrieron 75 formularios y se recibieron finalmente 35 postulaciones, que luego de la revisión técnica y formal, estuvieron en condiciones de ser evaluadas cualitativamente por el Comité Internacional para considerar la calidad, pertinencia y coherencia de las propuestas de acuerdo con la Convocatoria. 

El proceso de evaluación estuvo a cargo de un Comité Internacional compuesto por 9 expertos/as de 4 países: Marco Benalcázar (Ecuador), Marta Bianchi (Argentina), Carolina Hevia (Ecuador), Silvia Lago Martínez (Argentina), Fernando Laredo (Argentina), Graciela Nathanson (Argentina), Isabel Ramos (Ecuador), Carla Texeira (Brasil) y Stephane Vinolo (Francia). Dicho comité realizó la primera fase de valoración de los proyectos presentados.

Como segunda fase, el equipo organizador, integrado por CLACSO y UNESCO, revisaron las propuestas tomando en cuenta las bases de la convocatoria, la calidad técnica de las propuestas, la pertinencia de los temas a ser trabajados en el marco de la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO, el balance de áreas para el desarrollo de investigaciones, entre otros criterios de carácter técnico y metodológico. 

Luego de todo el proceso de evaluación realizado, que reconoció la excelente calidad, relevancia y rigurosidad de la mayoría de las postulaciones, se seleccionaron cinco (5) propuestas para el desarrollo de las policy briefs, en por lo menos 3 de ellas, la presencia de investigadores/as con trabajo en y/o sobre Ecuador.
 

La nómina de propuestas seleccionadas de la Convocatoria es la siguiente:

Autores/asCentro miembroʲíTítulo de la propuesta
Lisbeth Moya, José Antonio FigueroaInstituto de Investigaciones Económicas de la Universidad Central del Ecuador – IIE/UCEEcuadorEl uso de la Inteligencia Artificial (IA) para la reconstrucción de centros de memoria afrodescendiente en Cuba y Ecuador
Ezequiel Alexander Rivero, Helena Martins do Rêgo Barreto, Angy Floremma Mora NogueraCentro de Estudios Avanzados – FCS/UNC – Facultad de Ciencias Sociales – Universidad Nacional de CórdobaArgentinaLa IA en las Industrias Culturales: Protección del trabajo, promoción de la diversidad cultural y justicia algorítmica
Isabel PonceSociety of Latin American Studies (UK) – SLASReino UnidoAdaptación de los Docentes a la GenAI en el sistema educativo del Ecuador a través de Métodos Mixtos
Saudia Levoyer, Lila Luchessi, Fernando José BarrioPrograma de Estudios Latinoamericanos – PEL/UASB – Universidad Andina Simón BolívarEcuadorInteligencia Artificial para la Acción Climática: Soluciones Éticas e Innovadoras para Mitigar el Cambio Climático en América Latina y el Caribe
Alexandra Gualavisí, Ángel Gutiérrez, María Belén AlbornozFacultad Latinoamericana de Ciencias Sociales, Ecuador – FLACSOEcuadorHacia una Política de Protección Social basada en Inteligencia Artificial inclusiva, transparente y ética en Ecuador

Este dictamen es irrevocable e inapelable.

La inteligencia artificial (IA) es un campo de la informática enfocado en el desarrollo de sistemas y programas capaces de realizar tareas que normalmente requieren inteligencia humana, como el reconocimiento de voz, la visión por computadora, la toma de decisiones, el aprendizaje y la resolución de problemas. Aunque su uso puede ser de gran utilidad, también plantea diversas problemáticas que deben ser consideradas con urgencia.

Por ejemplo, la transformación del trabajo y la desigualdad digital son desafíos profundos, especialmente en regiones como América Latina y El Caribe, donde las desigualdades estructurales ya son marcadas. La automatización impulsada por la IA está reconfigurando el mercado laboral, eliminando empleos en sectores tradicionalmente ocupados por trabajadores menos calificados y concentrando oportunidades en áreas de alta especialización tecnológica. Esto refuerza las brechas existentes, ya que el acceso a formación avanzada y recursos digitales sigue siendo limitado para grandes sectores de la población. Además, la desigualdad digital no se limita al acceso a la tecnología, sino también a las capacidades para usarla de manera significativa, perpetuando patrones de exclusión histórica basados en el género, la etnia y el nivel socioeconómico.

Asimismo, los cambios e impactos que produce la IA sobre la privacidad y la vigilancia son preocupantes. Por ejemplo, el uso intensivo de algoritmos para recopilar, analizar y utilizar datos personales plantea serias preocupaciones sobre cómo se garantizan los derechos de los individuos en un contexto donde estas tecnologías operan como “cajas negras”. Esto puede derivar en prácticas discriminatorias, como el racismo algorítmico o la vigilancia desproporcionada de ciertos grupos sociales. Casos como la identificación errónea de personas en sistemas de reconocimiento facial o el uso de algoritmos para predecir “riesgos” basados en datos sesgados ilustran los peligros de una implementación de IA sin controles éticos y normativos adecuados.

En este contexto, la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO, adoptada en noviembre de 2021 por 193 Estados miembros, se posiciona como el primer marco ético global para abordar estos desafíos. Sus objetivos incluyen garantizar la equidad, la transparencia y la rendición de cuentas en el diseño y uso de la IA, con un enfoque especial en prevenir la perpetuación de desigualdades estructurales, de usos discriminatorios por razón de color de la piel, género, edad, nacionalidad, entre otras, y proteger a los grupos vulnerables. Además, subraya la necesidad de regular las “cajas negras” algorítmicas para asegurar que los procesos de decisión sean auditables y comprensibles, y fomentar la inclusión de perspectivas diversas en el desarrollo de estas tecnologías.

A medida que la IA transforma sectores clave como la salud, la educación y la seguridad, su desarrollo debe estar alineado con principios éticos sólidos. Esto no solo permitirá mitigar los riesgos de discriminación y exclusión, sino también garantizar que los beneficios de la IA se distribuyan de manera equitativa, contribuyendo al bienestar global y a una sociedad más inclusiva.