Ayuda
Ir al contenido

Dialnet


¿Quién paga los daños que causa la IA? De la ética a la responsabilidad por productos defectuosos

    1. [1] Universidad Pontificia Comillas

      Universidad Pontificia Comillas

      Madrid, España

  • Localización: Revista Iberoamericana de Bioética, ISSN-e 2529-9573, Nº. 25, 2024 (Ejemplar dedicado a: Artificial Intelligence and Bioethics)
  • Idioma: español
  • Títulos paralelos:
    • Who Pays for the Damages Caused by AI? From Ethics to Product Liability
  • Enlaces
  • Resumen
    • español

      La IA ofrece grandes beneficios, pero también puede causar daños, lo que nos debe llevar a reflexionar ética y jurídicamente sobre ella. Desde la reflexión ética surge una conclusión evidente: la IA no debe causar daños y como reverso de lo anterior, si un sistema con IA causa daños habrá que fijar un responsable que indemnice a la víctima de los daños causados. La existencia de esta responsabilidad además fomentará la fabricación de unos sistemas de IA más seguros y confiables. Lamentablemente, la legislación vigente no basta para abordar estos problemas, por lo que hace falta la introducción de nuevas regulaciones. Desde la UE se están abordando estas cuestiones buscando mitigar la dificultad probatoria y estableciendo que el fabricante será el responsable de los productos que incorporan sistemas de IA y que no tienen la seguridad que cabría legítimamente esperar.

    • English

      AI offers great benefits, but it can also cause harm, which should lead us to think ethically and legally. From ethical reflection, one conclusion is obvious: AI should not cause harm, and, on the other hand, if an AI system does cause harm, it will be necessary to establish a responsible party to compensate the victim for the harm caused. This responsibility will also encourage the manufacturing of safer and more reliable AI systems. Unfortunately, existing legislation does not address these problems, and new regulations are needed. The EU is addressing these issues by seeking to mitigate the evidentiary difficulty, and establishing that the manufacturer will be responsible for products that incorporate AI systems that do not have the security that would legitimately be expected.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno