Il lavoro si propone di scrutare i rapporti tra i sistemi di Intelligenza Artificiale (IA) e i danni da questi cagionati, distinguendo tra i sistemi comunque sottoposti al controllo umano e quelli, pionieristici, di machine learning, in cui la machina artificialis è in grado di auto-apprendere e di partorire attività/decisioni imprevedibili da parte del programmatore. Con riguardo al primo profilo, tendono a riproporsi le risapute asperità probatorie che affliggono, sul terreno penalistico, l'allocazione delle responsabilità da produzioni pericolose, mentre, con riferimento al secondo, vengono sottoposte a vaglio critico alcune recenti e suggestive ricostruzioni che puntano a delineare i fondamenti di un nuovo "diritto penale robotico".
This paper provides an analysis of the relationships between Artificial Intelligence (AI) systems and the damages caused by them, making a distinction between systems that are still subject to human control and the pioneering ones based on machine learning, in which the "machina artificialis" is able to self-learn and generate activities/decisions that the developer cannot predict. As far as the first issue is concerned, the usual problems relating to evidence - which, in the area of criminal law, afflict the allocation of liability for dangerous productions - tend to come back to the fore, while, with regard to the second issue, some recent, evocative reconstructions - aimed at outlining the foundations of a new "robotic criminal law" - are exposed to a critical examination.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados