Los sistemas de inteligencia artificial (IA) toman decisiones de forma autónoma, las cuales tienen alta repercusión en cómo nos informamos, qué ocio consumimos, qué tratamiento médico nos corresponde o para qué trabajo estamos cualificados. Estetipo de decisiones se basan en el análisis histórico de datos recopilados de distintas fuentes, y que sirven para entrenar algoritmos de aprendizaje automático. La cantidad, calidad y representatividad de los datos es esencial para conseguir que estos algoritmos realicen predicciones acertadas. Sin embargo, este tipo de algoritmos no están exentos de tomar decisiones discriminatorias o sesgadas si, porejemplo, no se tuvieron en cuenta colectivos infrarrepresentados ni una perspectiva de género en la toma de datos y su posterior tratamiento. Es por ello por lo que es necesario conocer cómo funciona internamente la IA y en qué criterios basa sus decisiones, logrando así una mayor transparencia y confianza en sus resultados. Enesta comunicación se expondrán los avances del proyecto GENIA, financiado por la modalidad UCOImpulsa del plan propio de la Universidad de Córdoba, que se centra en dotar a la IA de mecanismos de explicación para identificar sesgos de género en las predicciones de sistemas basados en aprendizaje automático.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados