Ayuda
Ir al contenido

Dialnet


Inteligencia artificial explicable para la detección y análisis de sesgos de género en modelos de aprendizaje automático

    1. [1] Universidad de Córdoba

      Universidad de Córdoba

      Cordoba, España

  • Localización: Ciencia violeta: I Encuentro Científico sobre Investigación con Perspectiva de Género : [Actas] / Sara Pinzi (ed. lit.), Silvia Medina Quintana (ed. lit.), Celia Prados García (ed. lit.), Pablo Hinojosa Luque (ed. lit.), David Sánchez Cruz (ed. lit.), 2023, ISBN 978-84-9927-765-3, págs. 83-88
  • Idioma: español
  • Enlaces
  • Resumen
    • Los sistemas de inteligencia artificial (IA) toman decisiones de forma autónoma, las cuales tienen alta repercusión en cómo nos informamos, qué ocio consumimos, qué tratamiento médico nos corresponde o para qué trabajo estamos cualificados. Estetipo de decisiones se basan en el análisis histórico de datos recopilados de distintas fuentes, y que sirven para entrenar algoritmos de aprendizaje automático. La cantidad, calidad y representatividad de los datos es esencial para conseguir que estos algoritmos realicen predicciones acertadas. Sin embargo, este tipo de algoritmos no están exentos de tomar decisiones discriminatorias o sesgadas si, porejemplo, no se tuvieron en cuenta colectivos infrarrepresentados ni una perspectiva de género en la toma de datos y su posterior tratamiento. Es por ello por lo que es necesario conocer cómo funciona internamente la IA y en qué criterios basa sus decisiones, logrando así una mayor transparencia y confianza en sus resultados. Enesta comunicación se expondrán los avances del proyecto GENIA, financiado por la modalidad UCOImpulsa del plan propio de la Universidad de Córdoba, que se centra en dotar a la IA de mecanismos de explicación para identificar sesgos de género en las predicciones de sistemas basados en aprendizaje automático.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno