El seguimiento visual de objetos se puede expresar como un problema de estimación, donde se desea encontrar los valores que describen la trayectoria de los objetos, pero sólo se dispone de observaciones. En esta Tesis se presentan dos aproximaciones para resolver este problema en aplicaciones complejas de visión por computador. La primera aproximación se basa en la utilización de la información del contexto donde tiene lugar el seguimiento. Como resultado se presenta una aplicación de anotación de vÌdeo: la reconstrucción 3D de jugadas de un partido de fútbol.
Escogiendo un esquema Bayesiano de seguimiento visual, la segunda aproximación es un algoritmo que utiliza como observaciones los valores de apariencia de los píxels de la imagen. Este algoritmo, denominado iTrack, se basa en la construcción y ajuste de un modelo estadístico de la apariencia del objeto que se desea seguir. Para mostrar la utilidad del nuevo algoritmo se presenta una aplicación de vÌdeo vigilancia automática. Este problema es difícil de resolver debido a la diversidad de escenarios y de condiciones de adquisición.
Visual tracking can be stated as an estimation problem. The main goal is to estimate the values that describe the object trajectories, but we only have observations of their true values. In this Thesis, we present two approaches to solve the problem in complex computer vision applications. The first approach is based on using the application context information. To show how the environment knowledge is a tracking valid approach, we present a video annotation application: the 3D reconstruction of a soccer match.
Using the Bayesian probabilistic scheme, the second approach that we present is a visual tracking algorithm that uses directly the image values like observations. This algorithm, that we named iTrack, is based on a statistical model of the object appearance. To show the new algorithm performance we present an automatic video surveillance application. This problem is difficult due to the possible different scenes and the environment conditions.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados