Madrid, España
A día de hoy, el sistema de responsabilidad por el uso de sistemas de Inteligencia Artificial sigue reposando, en lo esencial, en los mecanismos que, con matizaciones, adaptaciones y ajustes, han servido a tales fines durante los períodos de cambio y transformación tecnológica que a lo largo de la historia se han sucedido hasta el presente: un modelo basado en sanciones. De este modo, el sistema de responsabilidades por el uso de la Inteligencia Artificial se encuentra integrado por dos subsistemas de diferente alcance y contenido: de un lado, el subsistema punitivo, basado en sanciones administrativas y asentado sobre una pluralidad de agentes que tutelan tal actividad de control; y, de otro, el subsistema reparador, que pretende construirse desde la lógica que proporciona el derecho de daños. Las dificultades a la hora de aplicar y hacer efectivas las técnicas de control y sanción en un escenario incierto sobre los límites y usos de estas técnicas hacen necesario profundizar en su estudio.
The objective of this article is to provide an overview of the regulatory model that has inspired the new regulations on AI and its relations with the specific regulatory framework on occupational risk prevention. The aim is to delve deeper into the general obligations of AI system providers and the specific obligations, in terms of occupational risk prevention, of such providers and of the employer who incorporates such systems into the workplace. An analysis is also made of the current regime regarding liability for damages, with the aim of raising the range of possibilities of claims by the worker who suffers damages derived from AI and its relationship with the general regime of liability of the employer.
© 2001-2025 Fundación Dialnet · Todos los derechos reservados