Bild
Visualisierung: Bilder werden im Bild-Viewer mit Schwenken, Zoomen und pixelgenauer Inspektion angezeigt. Als Teil einer MCAP-Aufnahme erscheinen Bilder in dedizierten Bild-Panels, synchronisiert mit anderen Sensorstreams. Annotation: Jedes Bild wird unabhängig als Einzelbild annotiert. Alle sieben 2D-Annotationswerkzeuge stehen zur Verfügung: Bounding Boxes, Polygone, Segmentierungsmasken, Polylinien, Keypoints, Klassifikation und Objekt-Tracking (in Videosequenzen). Unterstützte Formate: JPEG, PNG, WebP, BMP Anwendungsfälle: Objekterkennung, Instanzsegmentierung, semantische Segmentierung, Bildklassifikation, Keypoint-Erkennung, Posenschätzung.Video
Visualisierung: Videos werden beim Hochladen automatisch in Bildsequenzen konvertiert und ermöglichen Bild-für-Bild-Wiedergabe mit Zeitleisten-Scrubbing. Navigieren Sie vor und zurück durch Bilder, springen Sie zu bestimmten Zeitstempeln oder spielen Sie mit konfigurierbaren Geschwindigkeiten ab. Annotation: Annotatoren arbeiten Bild für Bild mit Objekt-Tracking über die Zeitleiste. Objekt-IDs bleiben über Bilder hinweg bestehen für konsistente Identitätszuweisung. Alle 2D-Annotationswerkzeuge stehen auf jedem Bild zur Verfügung. Unterstützte Formate: MP4, MOV Anwendungsfälle: Objekt-Tracking, Aktionserkennung, zeitliche Ereigniserkennung, Fahrszenen-Labeling, Verhaltensanalyse.Die Videoverarbeitung findet nach dem Hochladen im Hintergrund statt. Große Videos können einige Minuten zur Konvertierung benötigen. Sie können den Sequenzstatus in Mission Control oder über die API überwachen.
LiDAR / Punktwolke
Visualisierung: Punktwolken werden in einem 3D-Viewer mit Vogelperspektive, Perspektivansicht und Seitenansichten gerendert. Sechs Visualisierungsmodi ermöglichen es Ihnen, Punkte nach verschiedenen Eigenschaften einzufärben:| Modus | Beschreibung |
|---|---|
| Neutral | Einheitliche Einzelfarbe für strukturelle Übersicht |
| Intensität | Rückstrahlstärke — hebt reflektierende Oberflächen hervor |
| Regenbogen | Zeitliche oder sequentielle Einfärbung |
| Label | Semantische Klasseneinfärbung aus Annotationen |
| Panoptisch | Instanzbasierte Einfärbung für einzelne Objekte |
| Bildprojektion | Kamerabilder auf die Punktwolke projiziert |
MCAP
Visualisierung: MCAP-Aufnahmen werden im Multi-Sensor-Viewer mit bis zu acht Paneltypen angezeigt: Bild, 3D / Punktwolke, Plot, Rohnachrichten, Log, Karte, Anzeige und Zustandsübergänge. Avala erkennt automatisch Nachrichtentypen in der Aufnahme und weist Topics dem entsprechenden Paneltyp zu. Alle Panels teilen eine synchronisierte Zeitleiste für koordinierte Wiedergabe von Kamera, LiDAR, Radar, IMU und anderen Sensorstreams. Der Layout-Composer erstellt automatisch eine optimierte Panelanordnung basierend auf den Topics in Ihrer Aufnahme, oder Sie passen das Layout manuell an. Navigieren Sie Bild für Bild, scrubben Sie zu einem beliebigen Zeitstempel oder spielen Sie die gesamte Aufnahme mit konfigurierbarer Geschwindigkeit ab. Annotation: Avala parst MCAP-Dateien, um Sensorstreams zu extrahieren und zu synchronisieren. Kamerabilder werden neben projizierten LiDAR-Daten angezeigt, was Multi-Kamera-Annotation mit 3D-Kontext ermöglicht. Annotatoren platzieren 3D-Quader, die konsistent über alle Kameraansichten projiziert werden. Unterstützte Formate: MCAP (mit ROS-Nachrichtenunterstützung) Anwendungsfälle: Multi-Sensor-Fusion, Rundumansicht-Wahrnehmung, Datenlabeling für autonome Fahrzeuge, Roboter-Sensorkalibrierung, Flottendatenüberprüfung.MCAP-Unterstützung umfasst automatische Extraktion von Kameraintrinsik und -extrinsik für präzise LiDAR-zu-Kamera-Projektion. Sowohl Pinhole- als auch Double-Sphere- (Fisheye-) Kameramodelle werden unterstützt. Siehe den MCAP / ROS Integrationsguide für Einrichtungsdetails.
Splat
Visualisierung: Gaussian Splat Szenen werden in einem WebGPU-beschleunigten 3D-Viewer gerendert. Navigieren Sie frei durch fotorealistische 3D-Szenenrekonstruktionen mit flüssigen Kamerasteuerungen. Der Renderer verwendet GPU-Radix-Sortierung, Buffer-Pooling und Pipeline-Vorkompilierung für Echtzeitperformance. Annotation: Annotatoren navigieren durch die rekonstruierte Umgebung und platzieren 3D-Annotationen direkt in der Szene. Klassifikationslabels können auf die gesamte Szene oder einzelne Regionen angewendet werden. Unterstützte Formate: Gaussian Splat Anwendungsfälle: 3D-Szenenverständnis, Annotation für Novel View Synthesis, Spatial AI Trainingsdaten, Umgebungskartierung.Fähigkeitenvergleich
Die folgende Tabelle zeigt Visualisierungs- und Annotationsfähigkeiten für jeden Datentyp:| Fähigkeit | Bild | Video | Punktwolke | MCAP | Splat |
|---|---|---|---|---|---|
| Visualisierung | |||||
| 2D-Bild-Viewer | Ja | Ja | — | Ja | — |
| 3D-Punktwolken-Viewer | — | — | Ja | Ja | — |
| 3D-Splat-Viewer | — | — | — | — | Ja |
| Multi-Panel-Layout | — | — | — | Ja | — |
| Zeitleisten-Wiedergabe | — | Ja | Ja | Ja | — |
| Visualisierungsmodi (6) | — | — | Ja | Ja | — |
| Annotation | |||||
| Bounding Box | Ja | Ja | — | — | — |
| Polygon | Ja | Ja | — | — | — |
| 3D-Quader | — | — | Ja | Ja | Ja |
| Segmentierung | Ja | Ja | — | — | — |
| Polylinie | Ja | Ja | — | — | — |
| Keypoints | Ja | Ja | — | — | — |
| Klassifikation | Ja | Ja | Ja | Ja | Ja |
| Objekt-Tracking | — | Ja | Ja | Ja | — |
Upload-Anforderungen
| Eigenschaft | Limit |
|---|---|
| Max. Dateigröße (Bilder) | 20 MB pro Datei |
| Max. Dateigröße (Video) | 2 GB pro Datei |
| Max. Dateigröße (Punktwolke) | 500 MB pro Datei |
| Max. Dateigröße (MCAP) | 5 GB pro Datei |
| Unterstützte Bildformate | JPEG, PNG, WebP, BMP |
| Unterstützte Videoformate | MP4, MOV |
| Unterstützte Punktwolkenformate | PCD, PLY |
| Unterstützte Multi-Sensor-Formate | MCAP |
Nächste Schritte
Datensätze verwalten
Laden Sie Ihre Daten hoch, organisieren und verwalten Sie sie in Mission Control.
MCAP / ROS Integration
Richten Sie Multi-Sensor-Datenpipelines mit MCAP und ROS ein.
Grundkonzepte
Verstehen Sie Viewer, Panels, Layouts und andere Plattformkonzepte.
Architektur
Erfahren Sie, wie Visualisierungsengine und Backend-Dienste zusammenarbeiten.