Ayuda
Ir al contenido

Dialnet


Resumen de Taxonomía de las garantías jurídicas en el empleo de los sistemas de inteligencia artificial

Pere Simón Castellano

  • español

    En el presente artículo se estudia el enorme desafío que proyectan los sistemas de inteligencia artificial para los derechos de las personas, planteando los términos del debate con una propuesta que responde a cuestiones clave —qué, para qué, quién y cómo— y que se concreta en la definición de la taxonomía de las garantías frente al empleo de algoritmos para la toma de decisiones que producen efectos jurídicos para los individuos.Ante la insuficiencia de una respuesta basada en el marco jurídico de la protección de datos, y las limitaciones de un enfoque centrado exclusivamente en la transparencia y el derecho de acceso, el autor defiende la necesidad de encontrar el sustento para medidas y garantías sistémicas en la dignidad humana, el libre desarrollo de la personalidad y la dimensión objetiva de los derechos fundamentales. Una lectura más amplia, que escapa a los derechos individuales y que tiene en cuenta la dimensión social o colectiva de la problemática, en la misma línea que la propuesta europea de reglamento armonizado sobre la materia.El debate debe centrarse, a juicio del autor, en torno a los usos plausibles, posibles, y las garantías vinculadas a su empleo, aceptando un modelo de corregulación basado en el principio de responsabilidad proactiva y las autoevaluaciones de impacto, que se imponen en la práctica por pragmatismo, con el fin de obtener cierta eficacia y mitigar riesgos en el diseño, entrenamiento, empleo y monitorización de herramientas tecnológicas.La propuesta formulada en el trabajo incorpora hasta cinco categorías —transparencia, explicabilidad, seguridad, garantías subjetivas y garantías institucionales— que, a su vez, están integradas por distintas propiedades y subcategorías, y cuya eficacia o relevancia depende de cada caso concreto —naturaleza, contexto y alcance de la tecnología y de su empleo—.

  • English

    This article studies the enormous challenge projected by artificial intelligence systems for the rights of people, proposing the terms of the debate with a proposal that responds to key questions —what, why, who and how— and that is specified in the definition of the taxonomy of guarantees against the use of algorithms for decision-making that produce legal effects for individuals.Given the insufficiency of a response based on the legal framework of data protection, and the limitations of an approach focused exclusively on transparency and the right of access, the author defends the need to find support for systemic measures and guarantees in the human dignity, the free development of the personality and the objective dimension of fundamental rights. A broader vision, which goes beyond individual rights and considers the social or collective dimension of the problem, along the same lines as the European proposal for a harmonized regulation on the matter.The debate should focus, in the author’s opinion, around plausible, possible uses and the guarantees linked to their use, accepting a co-regulation model based on the principle of proactive responsibility and self-assessments of impact, which are imposed in the practice by pragmatism, to obtain certain efficiency and mitigate risks in the design, training, use and monitoring of technological tools.The proposal formulated in the work incorporates up to five categories —transparency, explainability, security, subjective and institutional guarantees— which, in turn, are made up of different properties and subcategories, and whose effectiveness or relevance depends on each specific case —nature, context and scope of the technology and its use.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus