Ayuda
Ir al contenido

Dialnet


Detectando los riesgos de la inteligencia artificial en la instrucción penal

    1. [1] Universidad de Oviedo

      Universidad de Oviedo

      Oviedo, España

  • Localización: Revista General de Derecho Procesal, ISSN-e 1696-9642, Nº. 64, 2024
  • Idioma: español
  • Títulos paralelos:
    • Detecting the risks of artificial intelligene in criminal investigations
  • Texto completo no disponible (Saber más ...)
  • Resumen
    • español

      El ámbito jurídico no es ajeno a la afectación que supone la irrupción y futuro desarrollo de la Inteligencia Artificial (IA). A este respecto, corresponde a los juristas estudiar el modo concreto en que dicha tecnología puede afectar a los distintos sectores del ordenamiento jurídico, a fin de alcanzar a conocer cómo debería reformarse nuestra legislación para adaptarse, sin merma de derechos, a esta nueva realidad tecnológica. El objeto del presente artículo es acometer ese estudio preliminar mediante un análisis de los riesgos (evaluación de impacto) que la aplicación de sistemas de IA pueden tener en la instrucción penal, especialmente en relación con los derechos fundamentales implicados en la misma. A tal efecto, se propone un ejercicio ponderativo (test de desnaturalización del núcleo esencial), a través el cual trato de identificar las líneas rojas que la IA no debería sobrepasar en la investigación penal al interactuar con tales derechos fundamentales. El trabajo, que se cierra con las pertinentes conclusiones, pretende ser de utilidad en el diseño y desarrollo de los programas de cumplimiento de los entornos controlados de pruebas para sistemas de IA a los que se refieren el RD 817/2023 y el Reglamento de IA de la Unión Europea (en adelante, RIA).

    • English

      The legal field is no stranger to the impact of the emergence and future development of Artificial Intelligence (AI). In this regard, it is up to jurists to study the specific way in which this technology may affect the different sectors of the legal system, in order to then get to know how our legislation should be reformed in order to adapt to this new technological reality without diminishing rights. The purpose of this article is to undertake this preliminary study through an analysis of the risks (impact assessment) that the application of AI systems may have on criminal investigation, especially in relation to the fundamental rights involved in it. To this end, a weighting exercise (essential core denaturalisation test) is proposed, through which I try to identify the red lines that AI should not exceed in criminal investigation when interacting with such fundamental rights. The paper concludes with some findings that are intended to be useful in the design and development of compliance programmes for controlled environments for AI systems referred to in the Royal Decree 817/2023 and the EU AI Act.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno