Zum Hauptinhalt springen
Avala unterstützt fünf Datenmodalitäten, jeweils mit GPU-beschleunigter Visualisierung und speziell entwickelten Annotations-Workflows. Diese Seite behandelt, was Sie sehen, was Sie labeln können und die unterstützten Formate für jeden Typ.

Bild

Visualisierung: Bilder werden im Bild-Viewer mit Schwenken, Zoomen und pixelgenauer Inspektion angezeigt. Als Teil einer MCAP-Aufnahme erscheinen Bilder in dedizierten Bild-Panels, synchronisiert mit anderen Sensorstreams. Annotation: Jedes Bild wird unabhängig als Einzelbild annotiert. Alle sieben 2D-Annotationswerkzeuge stehen zur Verfügung: Bounding Boxes, Polygone, Segmentierungsmasken, Polylinien, Keypoints, Klassifikation und Objekt-Tracking (in Videosequenzen). Unterstützte Formate: JPEG, PNG, WebP, BMP Anwendungsfälle: Objekterkennung, Instanzsegmentierung, semantische Segmentierung, Bildklassifikation, Keypoint-Erkennung, Posenschätzung.

Video

Visualisierung: Videos werden beim Hochladen automatisch in Bildsequenzen konvertiert und ermöglichen Bild-für-Bild-Wiedergabe mit Zeitleisten-Scrubbing. Navigieren Sie vor und zurück durch Bilder, springen Sie zu bestimmten Zeitstempeln oder spielen Sie mit konfigurierbaren Geschwindigkeiten ab. Annotation: Annotatoren arbeiten Bild für Bild mit Objekt-Tracking über die Zeitleiste. Objekt-IDs bleiben über Bilder hinweg bestehen für konsistente Identitätszuweisung. Alle 2D-Annotationswerkzeuge stehen auf jedem Bild zur Verfügung. Unterstützte Formate: MP4, MOV Anwendungsfälle: Objekt-Tracking, Aktionserkennung, zeitliche Ereigniserkennung, Fahrszenen-Labeling, Verhaltensanalyse.
Die Videoverarbeitung findet nach dem Hochladen im Hintergrund statt. Große Videos können einige Minuten zur Konvertierung benötigen. Sie können den Sequenzstatus in Mission Control oder über die API überwachen.

LiDAR / Punktwolke

Visualisierung: Punktwolken werden in einem 3D-Viewer mit Vogelperspektive, Perspektivansicht und Seitenansichten gerendert. Sechs Visualisierungsmodi ermöglichen es Ihnen, Punkte nach verschiedenen Eigenschaften einzufärben:
ModusBeschreibung
NeutralEinheitliche Einzelfarbe für strukturelle Übersicht
IntensitätRückstrahlstärke — hebt reflektierende Oberflächen hervor
RegenbogenZeitliche oder sequentielle Einfärbung
LabelSemantische Klasseneinfärbung aus Annotationen
PanoptischInstanzbasierte Einfärbung für einzelne Objekte
BildprojektionKamerabilder auf die Punktwolke projiziert
Der Viewer nutzt WebGPU Compute Shader für Frustum Culling und Level-of-Detail-Rendering, um auch bei dichten Scans hohe Bildraten zu halten. Annotation: Annotatoren platzieren 3D-Quader mit voller Kontrolle über Position, Abmessungen und Rotation. Quaderprojektionen werden in synchronisierten Kameraansichten angezeigt, wenn Kamerakalibrierungsdaten verfügbar sind. Unterstützte Formate: PCD, PLY Anwendungsfälle: 3D-Objekterkennung, Wahrnehmung für autonomes Fahren, Roboternavigation, Szenenrekonstruktion, HD-Kartenerstellung.

MCAP

Visualisierung: MCAP-Aufnahmen werden im Multi-Sensor-Viewer mit bis zu acht Paneltypen angezeigt: Bild, 3D / Punktwolke, Plot, Rohnachrichten, Log, Karte, Anzeige und Zustandsübergänge. Avala erkennt automatisch Nachrichtentypen in der Aufnahme und weist Topics dem entsprechenden Paneltyp zu. Alle Panels teilen eine synchronisierte Zeitleiste für koordinierte Wiedergabe von Kamera, LiDAR, Radar, IMU und anderen Sensorstreams. Der Layout-Composer erstellt automatisch eine optimierte Panelanordnung basierend auf den Topics in Ihrer Aufnahme, oder Sie passen das Layout manuell an. Navigieren Sie Bild für Bild, scrubben Sie zu einem beliebigen Zeitstempel oder spielen Sie die gesamte Aufnahme mit konfigurierbarer Geschwindigkeit ab. Annotation: Avala parst MCAP-Dateien, um Sensorstreams zu extrahieren und zu synchronisieren. Kamerabilder werden neben projizierten LiDAR-Daten angezeigt, was Multi-Kamera-Annotation mit 3D-Kontext ermöglicht. Annotatoren platzieren 3D-Quader, die konsistent über alle Kameraansichten projiziert werden. Unterstützte Formate: MCAP (mit ROS-Nachrichtenunterstützung) Anwendungsfälle: Multi-Sensor-Fusion, Rundumansicht-Wahrnehmung, Datenlabeling für autonome Fahrzeuge, Roboter-Sensorkalibrierung, Flottendatenüberprüfung.
MCAP-Unterstützung umfasst automatische Extraktion von Kameraintrinsik und -extrinsik für präzise LiDAR-zu-Kamera-Projektion. Sowohl Pinhole- als auch Double-Sphere- (Fisheye-) Kameramodelle werden unterstützt. Siehe den MCAP / ROS Integrationsguide für Einrichtungsdetails.

Splat

Visualisierung: Gaussian Splat Szenen werden in einem WebGPU-beschleunigten 3D-Viewer gerendert. Navigieren Sie frei durch fotorealistische 3D-Szenenrekonstruktionen mit flüssigen Kamerasteuerungen. Der Renderer verwendet GPU-Radix-Sortierung, Buffer-Pooling und Pipeline-Vorkompilierung für Echtzeitperformance. Annotation: Annotatoren navigieren durch die rekonstruierte Umgebung und platzieren 3D-Annotationen direkt in der Szene. Klassifikationslabels können auf die gesamte Szene oder einzelne Regionen angewendet werden. Unterstützte Formate: Gaussian Splat Anwendungsfälle: 3D-Szenenverständnis, Annotation für Novel View Synthesis, Spatial AI Trainingsdaten, Umgebungskartierung.

Fähigkeitenvergleich

Die folgende Tabelle zeigt Visualisierungs- und Annotationsfähigkeiten für jeden Datentyp:
FähigkeitBildVideoPunktwolkeMCAPSplat
Visualisierung
2D-Bild-ViewerJaJaJa
3D-Punktwolken-ViewerJaJa
3D-Splat-ViewerJa
Multi-Panel-LayoutJa
Zeitleisten-WiedergabeJaJaJa
Visualisierungsmodi (6)JaJa
Annotation
Bounding BoxJaJa
PolygonJaJa
3D-QuaderJaJaJa
SegmentierungJaJa
PolylinieJaJa
KeypointsJaJa
KlassifikationJaJaJaJaJa
Objekt-TrackingJaJaJa

Upload-Anforderungen

EigenschaftLimit
Max. Dateigröße (Bilder)20 MB pro Datei
Max. Dateigröße (Video)2 GB pro Datei
Max. Dateigröße (Punktwolke)500 MB pro Datei
Max. Dateigröße (MCAP)5 GB pro Datei
Unterstützte BildformateJPEG, PNG, WebP, BMP
Unterstützte VideoformateMP4, MOV
Unterstützte PunktwolkenformatePCD, PLY
Unterstützte Multi-Sensor-FormateMCAP
Upload-Limits können je nach Ihrem Tarif variieren. Kontaktieren Sie support@avala.ai, wenn Sie Dateien hochladen müssen, die diese Limits überschreiten.

Nächste Schritte

Datensätze verwalten

Laden Sie Ihre Daten hoch, organisieren und verwalten Sie sie in Mission Control.

MCAP / ROS Integration

Richten Sie Multi-Sensor-Datenpipelines mit MCAP und ROS ein.

Grundkonzepte

Verstehen Sie Viewer, Panels, Layouts und andere Plattformkonzepte.

Architektur

Erfahren Sie, wie Visualisierungsengine und Backend-Dienste zusammenarbeiten.