Imagen
Visualización: Las imágenes se muestran en el visor de imágenes con desplazamiento, zoom e inspección a nivel de píxel. Cuando forman parte de una grabación MCAP, las imágenes aparecen en paneles Image dedicados sincronizados con otros flujos de sensores. Anotación: Cada imagen se anota de forma independiente como un fotograma individual. Las siete herramientas de anotación 2D están disponibles: bounding boxes, polígonos, máscaras de segmentación, polilíneas, keypoints, clasificación y seguimiento de objetos (en secuencias de video). Formatos soportados: JPEG, PNG, WebP, BMP Casos de uso: Detección de objetos, segmentación de instancias, segmentación semántica, clasificación de imágenes, detección de keypoints, estimación de pose.Video
Visualización: Los videos se convierten automáticamente a secuencias de fotogramas al subirlos, permitiendo la reproducción fotograma a fotograma con desplazamiento en la línea de tiempo. Navegue hacia adelante y atrás entre fotogramas, salte a marcas de tiempo específicas o reproduzca a velocidades configurables. Anotación: Los anotadores trabajan fotograma a fotograma con seguimiento de objetos a lo largo de la línea de tiempo. Los IDs de objetos persisten entre fotogramas para una asignación de identidad consistente. Todas las herramientas de anotación 2D están disponibles en cada fotograma. Formatos soportados: MP4, MOV Casos de uso: Seguimiento de objetos, reconocimiento de acciones, detección de eventos temporales, etiquetado de escenas de conducción, análisis de comportamiento.El procesamiento de video ocurre en segundo plano después de la subida. Los videos grandes pueden tardar varios minutos en convertirse. Puede monitorear el estado de la secuencia en Mission Control o a través de la API.
LiDAR / Nube de puntos
Visualización: Las nubes de puntos se renderizan en un visor 3D con vista cenital, vista en perspectiva y vistas laterales. Seis modos de visualización permiten colorear los puntos por diferentes propiedades:| Modo | Descripción |
|---|---|
| Neutral | Color uniforme único para visión general estructural |
| Intensity | Intensidad de retorno — resalta superficies reflectivas |
| Rainbow | Coloreado temporal o secuencial |
| Label | Coloreado por clase semántica de las anotaciones |
| Panoptic | Coloreado a nivel de instancia para objetos individuales |
| Image Projection | Imágenes de cámara proyectadas sobre la nube de puntos |
MCAP
Visualización: Las grabaciones MCAP se muestran en el visor multi-sensor con hasta ocho tipos de paneles: Image, 3D / Point Cloud, Plot, Raw Messages, Log, Map, Gauge y State Transitions. Avala detecta automáticamente los tipos de mensajes en la grabación y asigna los topics al tipo de panel apropiado. Todos los paneles comparten una línea de tiempo sincronizada para la reproducción coordinada de flujos de cámara, LiDAR, radar, IMU y otros sensores. El compositor de diseño construye automáticamente una disposición de paneles optimizada basada en los topics de su grabación, o puede personalizar el diseño manualmente. Navegue fotograma a fotograma, desplácese a cualquier marca de tiempo o reproduzca la grabación completa con velocidad configurable. Anotación: Avala analiza archivos MCAP para extraer y sincronizar flujos de sensores. Las imágenes de cámara se muestran junto con datos LiDAR proyectados, permitiendo anotación multi-cámara con contexto 3D. Los anotadores colocan cuboides 3D que se proyectan consistentemente en todas las vistas de cámara. Formatos soportados: MCAP (con soporte de mensajes ROS) Casos de uso: Fusión multi-sensor, percepción de vista envolvente, etiquetado de datos de vehículos autónomos, calibración de sensores robóticos, revisión de datos de flota.El soporte MCAP incluye extracción automática de intrínsecos y extrínsecos de cámara para proyección precisa de LiDAR-a-cámara. Se soportan modelos de cámara pinhole y double-sphere (ojo de pez). Consulte la guía de integración MCAP / ROS para detalles de configuración.
Splat
Visualización: Las escenas Gaussian Splat se renderizan en un visor 3D acelerado por WebGPU. Navegue libremente por reconstrucciones de escenas 3D fotorrealistas con controles de cámara suaves. El renderizador usa GPU radix sorting, buffer pooling y precompilación de pipelines para rendimiento en tiempo real. Anotación: Los anotadores navegan por el entorno reconstruido y colocan anotaciones 3D directamente en la escena. Las etiquetas de clasificación pueden aplicarse a la escena completa o a regiones individuales. Formatos soportados: Gaussian Splat Casos de uso: Comprensión de escenas 3D, anotación para síntesis de vistas novedosas, datos de entrenamiento para IA espacial, mapeo de entornos.Comparación de capacidades
La siguiente tabla muestra las capacidades de visualización y anotación para cada tipo de dato:| Capacidad | Imagen | Video | Nube de puntos | MCAP | Splat |
|---|---|---|---|---|---|
| Visualización | |||||
| Visor de imagen 2D | Sí | Sí | — | Sí | — |
| Visor de nube de puntos 3D | — | — | Sí | Sí | — |
| Visor 3D Splat | — | — | — | — | Sí |
| Diseño multi-panel | — | — | — | Sí | — |
| Reproducción con línea de tiempo | — | Sí | Sí | Sí | — |
| Modos de visualización (6) | — | — | Sí | Sí | — |
| Anotación | |||||
| Bounding Box | Sí | Sí | — | — | — |
| Polígono | Sí | Sí | — | — | — |
| Cuboide 3D | — | — | Sí | Sí | Sí |
| Segmentación | Sí | Sí | — | — | — |
| Polilínea | Sí | Sí | — | — | — |
| Keypoints | Sí | Sí | — | — | — |
| Clasificación | Sí | Sí | Sí | Sí | Sí |
| Seguimiento de objetos | — | Sí | Sí | Sí | — |
Requisitos de subida
| Propiedad | Límite |
|---|---|
| Tamaño máximo de archivo (imágenes) | 20 MB por archivo |
| Tamaño máximo de archivo (video) | 2 GB por archivo |
| Tamaño máximo de archivo (nube de puntos) | 500 MB por archivo |
| Tamaño máximo de archivo (MCAP) | 5 GB por archivo |
| Formatos de imagen soportados | JPEG, PNG, WebP, BMP |
| Formatos de video soportados | MP4, MOV |
| Formatos de nube de puntos soportados | PCD, PLY |
| Formatos multi-sensor soportados | MCAP |
Próximos pasos
Gestión de datasets
Suba, organice y gestione sus datos en Mission Control.
Integración MCAP / ROS
Configure pipelines de datos multi-sensor con MCAP y ROS.
Conceptos fundamentales
Comprenda visores, paneles, diseños y otros conceptos de la plataforma.
Arquitectura
Conozca cómo funcionan juntos el motor de visualización y los servicios backend.