El proceso de generación de una imagen 2D a partir de un modelo 3D consta de varias fases: modelado, asignación de materiales y texturas, situación de las luces virtuales y finalmente el proceso de render. Los algoritmos de render toman como entrada una descripción de la geometría, los materiales, las texturas, las fuentes de luz y cámaras virtuales y producen una imagen (o una secuencia de imágenes en el caso de animaciones) como salida.
Existen diferentes algoritmos - desde los simples y rápidos hasta los más complejos y precisos - capaces de simular el comportamiento de la luz de una forma precisa. Procesar escenas complejas para la generación de imágenes fotorrealistas es uno de los objetivos clave en gráficos por computador. Desafortunadamente este proceso es muy intenso computacionalmente y requiere gran cantidad de tiempo en muchas ocasiones; la generación de una única imagen de alta calidad puede necesitar desde varias horas de cómputo hasta varios días en estaciones de trabajo actuales. La fase de render se considera el cuello de botella en proyectos de síntesis fotorrealística. Además, la selección de los parámetros de entrada y los valores de las variables relacionadas en la escena (como número de muestras por luz, profundidad de trazado en ray tracing, etc...) es muy complejo. Habitualmente el usuario del motor de render 3D tiende a "sobre-optimizar'" estas variables, es decir, elige valores que incrementan el tiempo de rendering considerablemente sin afectar a la calidad final de la imagen resultante.
Esta tesis describe una aproximación novedosa para la optimización del proceso de render basada en los principios de construcción del área de los sistemas MultiAgente. En concreto este trabajo está basado en los principios de diseño de los estándares de FIPA empleando mecanismos de adaptación, puja y conocimiento experto. Las ventajas obtenidas con esta aproximación son robustez, flexibilidad, escalabilidad, control descent
© 2001-2024 Fundación Dialnet · Todos los derechos reservados