Este trabajo estudia las distribuciones a priori de mínima información, para un espacio paramétrico finito, y una función de información generalizada. Concretamente, se generalizan la definición de distribución de referencia y el principio de maximización de la entropía. Se estudia la extensión al caso de transformaciones del parámetro. Los resultados fundamentales obtenidos son: la coincidencia de ambos métodos para las funciones incertidumbre decisivas y continuas, y la independencia de las distribuciones de referencia del experimento para las funciones incertidumbre continuas.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados