El Laboratorio colaborativo de innovación social ODSLab ha celebrado su primer taller de detección de sesgos de género en la Inteligencia Artificial. Este espacio, creado para alcanzar los retos de la Agenda 2030, donde ICEX España Exportación e Inversiones colabora dentro de su grupo motor, organizó esta primera actividad en torno al impulso del Objetivo 5 sobre igualdad de género. En estas sesiones, menores de 9 a 16 años aprendieron a detectar las desigualdades que reflejaban las ilustraciones elaboradas por modelos conocidos de IA como ChatGPT o Dall-e.
Principales conclusiones de la jornada
La falta de diversidad o representación en los datos procesados por la IA provoca que el modelo reproduzca los mismos estereotipos que encontramos en la sociedad. No se trata solo de entrenar a la Inteligencia Artificial con datos de calidad, sino también de que los propios grupos desarrolladores sean heterogéneos e igualitarios. Cuando los equipos humanos son poco diversos, algunas perspectivas quedan poco representadas, mientras que los estereotipos de género influyen sutil o inconscientemente en el desarrollo de los modelos. Estas son algunas de las conclusiones de este primer taller que organiza el laboratorio de la Asociación Innicia de innovación social, donde el ICEX, adscrito al Ministerio de Economía, Comercio y Empresa a través de la secretaría de Estado de Comercio, es miembro de su grupo motor.
Sesgos de género en IA, una preocupación global
Durante la celebración del pasado 8M, Día Internacional de la Mujer, la UNESCO publicó un informe que evidenció las preocupantes tendencias en los Modelos de Lenguaje Grandes (LLM), señalando que generan prejuicios de género, manifiestos de homofobia y estereotipos raciales. El análisis se centró en los modelos de procesamiento de lenguaje natural que nutren las plataformas de inteligencia artificial generativa más conocidas en la actualidad, gratuitas y de código abierto, como Chat GPT o Llama-2 de Meta.
Parte del estudio consistió en pedir a estos modelos de inteligencia artificial que escribieran una historia sobre diferentes individuos. En sus relatos, las LLM tendieron a asignar trabajos más diversos y prestigiosos a los personajes masculinos, como ingeniero, profesor o médico, mientras que a las mujeres les reservaban papeles de “empleada doméstica» , “cocinera» o “prostituta» .
El Parlamento Europeo aprobó un nuevo reglamento, el RAI, que representa la primera legislación a nivel mundial sobre esta materia, y que parte de la necesidad de regular una tecnología tan disruptiva como la IA. La norma enfatiza en su artículo 10 la necesidad de adoptar medidas adecuadas para detectar, prevenir y reducir sesgos en los datos y en su gestión. Más adelante, en el artículo 14, resalta la importancia de la supervisión humana en la prevención de sesgos en los sistemas de IA considerados de alto riesgo, como los sistemas autónomos.
“La inteligencia artificial como tal no tiene sesgo de género, sino que somos nosotros mismos los que vamos introduciendo orientaciones determinadas cuando vamos incorporando nuevos datos”, explicaba Nerea Luis, directora de Data e IA de Sngular y divulgadora científica en una entrevista. “Al final, la inteligencia artificial aprende de nosotros”, concluye esta experta.
Sesgos de género en Inteligencia Artificial, una inquietud global. Publicado en Mujer e Internacionalización, ICEX España Exportación e Inversiones.