Bristol detrás del primer conjunto de datos egocéntrico masivo del mundo

El primer conjunto de datos egocéntrico masivo del mundo

Egocentric 4D Live Perception (Ego4D) es un conjunto de datos a gran escala que recopila 3025 horas de imágenes de las cámaras portátiles de 855 participantes en nueve países. Crédito: ego4d

La Universidad de Bristol es parte de un consorcio internacional de 13 universidades en asociación con Facebook AI, que colaboraron para promover la percepción egocéntrica. Como resultado de esta iniciativa, hemos creado el conjunto de datos egocéntricos más grande del mundo utilizando cámaras estándar montadas en la cabeza.

El progreso en los campos de la inteligencia artificial (AI) y la realidad aumentada (AR) requiere aprender de los mismos datos que procesan los humanos para percibir el mundo. Nuestros ojos nos permiten explorar lugares, comprender a las personas, manipular objetos y disfrutar de actividades, desde el mundano acto de abrir una puerta hasta la emocionante interacción de un partido de fútbol con amigos.

Egocentric 4D Live Perception (Ego4D) es un conjunto de datos a gran escala que recopila 3025 horas de imágenes de las cámaras portátiles de 855 participantes en nueve países: Reino Unido, India, Japón, Singapur, KSA, Colombia, Ruanda, Italia y EE. UU. Los datos captan una amplia gama de actividades desde la perspectiva ‘egocéntrica’, es decir, desde el punto de vista de la persona que realiza la actividad. La Universidad de Bristol es el único representante del Reino Unido en este esfuerzo diverso e internacional, recopilando 270 horas de 82 participantes que capturaron imágenes de las actividades de la vida diaria que eligieron, como practicar un instrumento musical, cuidar el jardín, arreglar a su mascota o ensamblar muebles.

“En un futuro no muy lejano, podría estar usando anteojos AR inteligentes que lo guíen a través de una receta o cómo arreglar su bicicleta; incluso podrían recordarle dónde dejó sus llaves”, dijo el investigador principal de la Universidad de Bristol y Profesor de Visión por Computador, Dima Damen.

“Sin embargo, para que la IA avance, necesita comprender el mundo y las experiencias dentro de él. La IA intenta aprender sobre todos los aspectos de la inteligencia humana a través de la digestión de los datos que percibimos. Para permitir dicho aprendizaje automatizado, tenemos que capturar y registrar nuestras experiencias diarias ‘a través de nuestros ojos’. Esto es lo que proporciona Ego4D”.

Además de las imágenes capturadas, hay un conjunto de puntos de referencia disponibles para los investigadores. Un punto de referencia es una definición de problema junto con etiquetas recopiladas manualmente para comparar modelos. Los puntos de referencia de EGO4D están relacionados con la comprensión de lugares, espacios, acciones en curso, acciones futuras e interacciones sociales.

“Nuestros cinco nuevos y desafiantes puntos de referencia brindan un objetivo común para que los investigadores construyan investigaciones fundamentales para la percepción del mundo real de los contextos visuales y sociales”, dice la profesora Kristen Grauman del líder técnico de Facebook AI.

El ambicioso proyecto se inspiró en el exitoso conjunto de datos EPIC-KITCHENS de la Universidad de Bristol, que registró las actividades diarias en la cocina de los participantes en sus hogares y ha sido, hasta ahora, el conjunto de datos más grande en visión artificial egocéntrica. EPIC-KITCHENS ha sido pionera en el enfoque de “pausar y narrar” para dar un tiempo casi exacto de dónde se lleva a cabo cada acción en los largos y variados videos. Utilizando este enfoque, el consorcio EGO4D recopiló 2,5 millones de declaraciones con marca de tiempo de acciones en curso en el video, lo cual es crucial para comparar los datos recopilados.

Ego4D es un conjunto de datos enorme y diverso, con puntos de referencia, que resultará invaluable para los investigadores que trabajan en los campos de la realidad aumentada, la tecnología de asistencia y la robótica. Los conjuntos de datos estarán disponibles públicamente en noviembre de este año para los investigadores que firmen el acuerdo de uso de datos de Ego4D.


Explora más

AIR-Act2Act: un conjunto de datos para entrenar robots sociales para interactuar con personas mayores


Más información: Sitio web: ego4d-data.org/ Proporcionado por la Universidad de Bristol Citación: El primer conjunto de datos egocéntrico masivo del mundo (14 de octubre de 2021) recuperado el 19 de octubre de 2021 de https://techxplore.com/news/2021-10-world-massive-egocentric-dataset.html Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos. 7 Comparte

Comentarios a los editores


Un método en línea para asignar tareas a los robots en un equipo durante escenarios de desastres naturales

hace 3 horas

Cómo interviene la IA en el factor de potencia de un motor de caballo de batalla industrial

hace 4 horas

El escaneo del lado del cliente es como errores en nuestros bolsillos

hace 4 horas

Nueva solución para dispositivos de transferencia inalámbricos de bajo costo, livianos y compactos

hace 4 horas

La energía solar puede ser barata y confiable en toda China para 2060, muestra una investigación

Hace 8 horas

Investigadores construyen con éxito robots de enjambre de cuatro patas

18 de octubre de 2021

Cómo navega el cerebro por las ciudades: parece que estamos programados para calcular no el camino más corto sino el “más puntiagudo”

18 de octubre de 2021

Cargar comentarios (0)

© Tech Xplore 2014 – 2021 impulsado por Science X Network Política de privacidad Condiciones de uso

Tu privacidad

Este sitio utiliza cookies para ayudar con la navegación, analizar su uso de nuestros servicios, recopilar datos para la personalización de anuncios y proporcionar contenido de terceros. Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de privacidad y Términos de uso.

Estoy de acuerdo con esas opciones de cookies

Similar Posts

Leave a Reply