En este trabajo proporcionamos condiciones necesarias y suficientes de optimalidad en problemas de control ´optimo estoc´astico de tipo Mayer en tiempo continuo. Nuestro enfoque est´a basado en el principio del m´aximo estoc´astico. Caracterizamos un control ´optimo directamente mediante una ecuaci´on en derivadas parciales, alternativa a la ecuaci´on de Hamilton� Jacobi�Belman, pero que tambi´en permite obtener la funci´on valor de una forma indirecta. Los resultados se ilustran con el an´alisis de un modelo din´amico de un plan de pensiones agregado.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados