Las herramientas de inteligencia artificial (IA) se han convertido en una parte integral de nuestra vida diaria, desde asistentes de voz hasta algoritmos predictivos. Sin embargo, un informe reciente liderado por investigadores de UCL ha arrojado luz sobre un aspecto preocupante de la tecnología de IA: el sesgo de género. El estudio, encargado por la UNESCO, se centró en los Modelos de Lenguaje Grandes (LLMs), que son la base de plataformas de IA generativa populares como GPT-3.5, GPT-2 y Llama 2. Los descubrimientos revelaron evidencia alarmante de discriminación contra mujeres e individuos de diferentes culturas y sexualidades.
El estudio destacó el sesgo significativo presente en el contenido generado por herramientas de IA, particularmente en la asociación de palabras con el género. Los nombres femeninos estaban consistentemente ligados a palabras como «familia», «niños» y «esposo», reforzando roles de género tradicionales. Por otro lado, los nombres masculinos tenían más probabilidades de estar asociados con términos como «carrera», «ejecutivos» y «gestión», perpetuando estereotipos.
El estudio también evaluó la diversidad del contenido producido por herramientas de IA en relación con diferentes géneros, sexualidades y trasfondos culturales. Los LLMs de código abierto tendían a asignar profesiones prestigiosas como «ingeniero» o «médico» a hombres, mientras relegaban a las mujeres a roles como «criada doméstica» y «cocinera». Esta disparidad se extendió al lenguaje utilizado en las historias generadas por Llama 2, donde las palabras asociadas con hombres eran a menudo aventureras y decididas, mientras que las vinculadas con mujeres eran pasivas y domésticas.
La Dra. Maria Pérez Ortiz, una de las autoras del informe del Departamento de Ciencias de la Computación de UCL, enfatizó la necesidad de una renovación ética en el desarrollo de IA para abordar los sesgos de género profundamente arraigados. Como mujer en la industria tecnológica, aboga por sistemas de IA que reflejen la diversidad de experiencias humanas y promuevan la igualdad de género. El informe destaca la importancia de crear tecnologías de IA inclusivas y éticamente sólidas que defiendan los derechos humanos.
El equipo de la Cátedra de IA de la UNESCO en UCL, en colaboración con la UNESCO, tiene como objetivo concienciar sobre el sesgo de género en la IA y trabajar hacia el desarrollo de soluciones. Al organizar talleres y eventos que involucran a científicos de IA, desarrolladores, organizaciones tecnológicas y formuladores de políticas, buscan fomentar la cooperación internacional en la lucha contra los sesgos de género inducidos por la IA. El Profesor John Shawe-Taylor, autor principal del informe, enfatizó la necesidad de un esfuerzo global para abordar las desigualdades y promover la diversidad en el desarrollo de la IA. El informe fue presentado en la Reunión del Diálogo de Transformación Digital de la UNESCO y en la sede de las Naciones Unidas, destacando la urgencia de abordar el sesgo de género en las tecnologías de IA. El Prof. Drobnjak enfatizó la importancia de reconocer las capacidades de las mujeres en campos como la ciencia y la ingeniería, desafiando los estereotipos arraigados sobre los roles de género. Los hallazgos del estudio sirven como un llamado a la acción concertada para garantizar que las tecnologías de IA respeten los derechos humanos y promuevan la equidad de género.
Deja una respuesta