This article draws on socio-legal theory in relation to growing concerns over fairness, accountability and transparency of societally applied artificial intelligence (AI) and machine learning. The purpose is to contribute to a broad socio-legal orientation by describing legal and normative challenges posed by applied AI. To do so, the article first analyzes a set of problematic cases, e.g., image recognition based on gender-biased databases. It then presents seven aspects of transparency that may complement notions of explainable AI (XAI) within AI-research undertaken by computer scientists. The article finally discusses the normative mirroring effect of using human values and societal structures as training data for learning technologies; it concludes by arguing for the need for a multidisciplinary approach in AI research, development, and governance.
L’article propose une analyse sociojuridique des questions d’équité, de responsabilité et de transparence posées par les applications d’intelligence artificielle (IA) employées actuellement dans nos sociétés et de machine learning. Pour rendre compte de ces défis juridiques et normatifs, nous analysons des cas problématiques, comme la reconnaissance d’images fondée sur des bases de données qui présentent des biais de genre. Nous envisageons ensuite sept aspects de la transparence qui permettent de compléter les notions d’explainable AI (XAI) dans la recherche en sciences informatiques. L’article examine aussi l’effet de miroir normatif provoqué par l’usage des valeurs humaines et des structures sociétales comme données d’entraînement pour les technologies d’apprentissage. Enfin, nous plaidons pour une approche multidisciplinaire dans la recherche, le développement et la gouvernance en matière d’IA.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados