A medida que aumenta el número y la autonomía de los robots, la falibilidad humana supone un peligro inmediato mucho mayor que la aparición de máquinas superinteligentes.
Para evitar descuidos y abusos, los expertos intentan diseñar robots capaces de rechazar una orden humana si ello puede poner en peligro a otros humanos, el entorno o la propia máquina.
Ciertos parámetros y mecanismos de razonamiento pueden ayudar a un robot a decidir si es posible y conveniente obedecer una orden concreta emitida por una persona.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados