cámara de tráfico

Uso de la estimación del movimiento de la cámara para lograr el seguimiento de varios objetivos

Crédito: CC0 Dominio público

Estimar el movimiento de una cámara en movimiento es un problema omnipresente en el campo de la visión artificial. Con tecnologías como los automóviles autónomos y los drones autónomos cada vez más populares, se necesitan algoritmos rápidos y eficientes que permitan el procesamiento de video a bordo para devolver información oportuna y precisa a un bajo costo computacional. Esta estimación del movimiento de la cámara, o “estimación de la pose”, también es un componente crucial del seguimiento de objetivos a bordo de vehículos o plataformas en movimiento.

Investigadores de la Universidad Brigham Young han publicado sus resultados en Revista IEEE/CAA de Automatica Sinica, una publicación conjunta del Instituto de Ingenieros Eléctricos y Electrónicos y la Academia China de Ciencias. Han encontrado una manera de reducir en gran medida el tiempo de cálculo y la complejidad de la estimación de la pose al “sembrar” inteligentemente un algoritmo que ya se usa en la industria de la visión por computadora.

Los algoritmos de estimación de poses utilizan fotogramas de una transmisión de video de una cámara en movimiento para generar hipótesis sobre cómo se ha movido la cámara en el transcurso de cada fotograma consecutivo. Hasta ahora, los algoritmos utilizados para la estimación de la pose requerían la generación de hasta cinco a diez hipótesis sobre cómo se movía la cámara según los datos del video. Luego, estas hipótesis se calificaron según qué tan bien se ajustaban a los datos, y se eligió la hipótesis con la puntuación más alta como la mejor estimación de pose. Desafortunadamente, la generación de múltiples hipótesis es computacionalmente costosa y da como resultado un tiempo de retorno más lento para una estimación robusta de la pose.

Los investigadores han encontrado una manera de sembrar, o dar pistas, a un algoritmo ya utilizado en la visión por computadora al proporcionarle información entre cada cuadro, lo que reduce en gran medida la necesidad de generar muchas hipótesis. “En cada iteración, usamos la mejor hipótesis actual para generar el algoritmo”. La reducción de las hipótesis requeridas da como resultado directamente una reducción del tiempo de cálculo y la complejidad; “Mostramos que este enfoque reduce significativamente la cantidad de hipótesis que deben generarse y calificarse para estimar la pose, lo que permite la ejecución en tiempo real del algoritmo”.

Luego, el equipo comparó su método de siembra con otros algoritmos de estimación de posturas de última generación para clasificar cómo la reducción del número de hipótesis afectaba la precisión del cálculo. “Después de 100 iteraciones, el error de los métodos de siembra que utilizan información previa es comparable al solucionador de polinomios de cinco puntos de OpenCV, a pesar de que solo se genera una hipótesis por iteración en lugar de un promedio de cuatro hipótesis”. Además, cuando los dos algoritmos se examinaron a tiempo, el algoritmo de los equipos superó significativamente a otros métodos de vanguardia. En la mayoría de los casos, el nuevo algoritmo fue diez veces más rápido.

Luego, el grupo modificó su algoritmo para permitir el seguimiento de objetivos y lo probó en un UAV de múltiples rotores. El algoritmo rastreó con éxito múltiples objetivos con una resolución de 640 x 480. Los resultados fueron consistentes con su análisis anterior. “El algoritmo completo tarda 29 milisegundos en ejecutarse por fotograma, lo que significa que es capaz de ejecutarse en tiempo real a 34 fotogramas por segundo (FPS)”. En cuanto a lo que sigue, el equipo planea aplicaciones para la reconstrucción de escenas en 3D y métodos de seguimiento más complejos.


Similar Posts

Leave a Reply