Ayuda
Ir al contenido

Dialnet


The price of autonomy:: : Liability standards for complementary and substitutive medical robotics and artificial intelligence

    1. [1] Brooklyn Law School

      Brooklyn Law School

      Estados Unidos

  • Localización: Ius et Praxis, ISSN-e 0718-0012, ISSN 0717-2877, Vol. 28, Nº. 1, 2022, págs. 3-19
  • Idioma: inglés
  • Títulos paralelos:
    • El precio de la autonomía:: estándares de responsabilidad para la robótica médica complementaria y sustitutiva y la inteligencia artificial
  • Enlaces
  • Resumen
    • English

      When AI or robotics assist a professional, they are tools. In medicine, the doctrine of “competent human intervention” has shifted liability away from those who make devices and toward the professionals who use them. However, the professional in such scenarios should not bear the entire burden of responsibility. Tools can be defective, and vendors of defective, complementary AI and robotics should be held responsible for negligence. The burden of proof will still be on the plaintiff to demonstrate that not only a skilled medical professional, but also the maker of the tools used by such a professional, should be held liable for a preventable adverse outcome.

      When AI and robotics replace, rather than merely assist, a skilled medical professional, the burden should shift. The vendor of such computational systems needs to take on responsibility for errors and accidents. In the medical field, there has long been a standard of competent professional supervision of the deployment of advanced technology. When substitutive automation short-circuits that review, it is both defective and unreasonably dangerous. Nevertheless, at the damages phase of litigation, the vendor of the substitutive AI should be entitled to explain how damages should be mitigated based on its AI’s performance relative to the extant human- or human-machine based standard of care. Such responsibility for explanation will serve an important information-forcing function in areas where public understanding is often limited by trade secrecy.

      As law and political economy methods demonstrate, law cannot be neutral with respect to markets for new technology. It constructs these markets, making certain futures more or less likely. Distinguishing between technology that substitutes for human expertise and that which complements professionals is fundamental not just to labor policy and the political economy of automation, but also to tort law.

    • English

      Cuando la IA o la robótica ayudan a un profesional, son herramientas. En medicina, la doctrina de la “intervención humana competente” ha desplazado la responsabilidad de quienes fabrican dispositivos hacia los profesionales que los utilizan. Sin embargo, el profesional en tales escenarios no debe cargar con todo el peso de la responsabilidad. Las herramientas pueden ser defectuosas, y los proveedores de IA y robótica complementaria defectuosa deben ser considerados responsables por negligencia. La carga de la prueba aún recaerá en el demandante para demostrar que no solo el profesional médico capacitado, sino también el fabricante de las herramientas utilizadas por dicho profesional, debe ser considerado responsable de un resultado adverso prevenible.

      Cuando la IA y la robótica reemplacen, en lugar de simplemente ayudar, a un profesional médico calificado, la carga debería cambiar. El proveedor de dichos sistemas computacionales debe asumir la responsabilidad por errores y accidentes. En el campo de la medicina, ha existido durante mucho tiempo un estándar de supervisión profesional competente del despliegue de tecnología avanzada. Cuando la automatización sustitutiva cortocircuita esa revisión, es defectuosa e irrazonablemente peligrosa. Sin embargo, en la fase de daños del litigio, el proveedor de la IA sustitutiva debe tener derecho a explicar cómo se deben mitigar los daños en función del desempeño de su IA en relación con el estándar de atención existente basado en humanos o máquinas humanas. Tal responsabilidad de explicación cumplirá una importante función de obtención de información en áreas donde la comprensión del público a menudo se ve limitada por el secreto comercial.

      Como demuestran los métodos del derecho y la economía política, el derecho no puede ser neutral con respecto a los mercados de nuevas tecnologías. Construye estos mercados, haciendo ciertos futuros más o menos probables. Distinguir entre la tecnología que sustituye a la experiencia humana y la que complementa a los profesionales es fundamental no solo para la política laboral y la economía política de la automatización, sino también para la responsabilidad civil extracontractual.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno