Zum Hauptinhalt springen
Autonome Fahrzeugteams produzieren die größten und komplexesten Sensordatensätze der Branche. Avala bietet eine einzige Plattform zum Visualisieren roher Multi-Sensor-Aufnahmen, Annotieren von Wahrnehmungs-Trainingsdaten und Durchführen von Qualitätskontrolle — ohne zwischen separaten Visualisierungs- und Labeling-Werkzeugen zu wechseln.

Zuerst visualisieren

Bevor sie annotieren, müssen AV-Teams ihre Daten erkunden und verstehen. Der Multi-Sensor-Viewer von Avala verarbeitet den gesamten AV-Sensorstack:

MCAP-Wiedergabe

Laden Sie MCAP-Aufnahmen Ihrer Fahrzeugflotte hoch und spielen Sie alle Sensorstreams in einem synchronisierten Multi-Panel-Viewer mit 8 Paneltypen ab.

Rundumkamera + LiDAR

Betrachten Sie alle Rundumkameras neben LiDAR-Punktwolken mit automatischer kalibrierungsbewusster Projektion zur sensorübergreifenden Verifikation.

GPU-beschleunigtes 3D

Rendern Sie LiDAR-Punktwolken mit WebGPU-Beschleunigung und 6 Visualisierungsmodi: Neutral, Intensität, Regenbogen, Label, Panoptisch und Bildprojektion.

Zeitleisten-Navigation

Scrubben Sie durch Fahrtprotokolle, gehen Sie Bild für Bild durch und springen Sie zu bestimmten Zeitstempeln. Alle Panels bleiben über verschiedene Sensorraten hinweg synchronisiert.
Das bedeutet, Ihre Ingenieure können Avala für Datenüberprüfung und Debugging nutzen (als Ersatz für Foxglove oder Rerun), und Ihr Annotationsteam kann dieselben Daten in derselben Oberfläche labeln.

Datentypen

SensorAvala-DatentypTypische Annotation
Front-/RundumkamerasBild, Video2D-Bounding Boxes, Spurpolylinien, Segmentierungsmasken
LiDARPunktwolke3D-Quader mit Richtung, Abmessungen und Tracking-IDs
RadarMCAP (via Punktwolken-Panels)3D-Quader, Erkennungsmarker
Multi-Sensor-FusionMCAPSynchronisierte Kamera + LiDAR-Annotation mit 3D-zu-2D-Projektion

Häufige Aufgaben

3D-Objekterkennung

Labeln Sie Fahrzeuge, Fußgänger, Radfahrer und statische Objekte mit 3D-Quadern in LiDAR-Punktwolken. Der 3D-Annotationseditor bietet Vogelperspektive, Perspektiv- und Seitenansichten für präzise Quaderplatzierung. Quader umfassen vollständige Position (x, y, z), Abmessungen (Länge, Breite, Höhe) und Richtung (Gierwinkel).

Multi-Kamera-Projektion

Annotieren Sie 3D-Quader in der LiDAR-Ansicht und projizieren Sie diese automatisch auf Rundumkamerabilder zur visuellen Verifikation. Der Viewer unterstützt sowohl Pinhole- als auch Double-Sphere-Kameramodelle, sodass die Projektion mit Standard- und Fisheye-Objektiven funktioniert.
Multi-Kamera-Projektion ist eine der effektivsten Methoden zur Überprüfung der 3D-Annotationsqualität. Tiefen- und Richtungsfehler, die in einer Draufsicht schwer zu erkennen sind, werden offensichtlich, wenn der Quader über das Kamerabild gelegt wird.

Spur- und Straßenrandannotation

Verwenden Sie Polylinien-Werkzeuge, um Spurmarkierungen, Bordsteine und Straßenkanten in Kameraansichten nachzuzeichnen. Polylinien unterstützen verbundene Segmente mit Vertex-Bearbeitung und eignen sich für kurvige Spuren und komplexe Kreuzungen.

Zeitliches Objekt-Tracking

Verfolgen Sie Objekte über Frames hinweg mit konsistenten IDs für Bewegungsvorhersage und Trajektorienprognosemodelle. Objekt-IDs bleiben über die Sequenzzeitleiste bestehen, und die Bild-für-Bild-Navigation des Viewers macht es einfach, die Tracking-Kontinuität zu verifizieren.

Szenenklassifikation

Klassifizieren Sie Fahrbedingungen auf Szenenebene — Wetter (klar, regnerisch, neblig), Tageszeit (Tag, Dämmerung, Nacht), Straßentyp (Autobahn, städtisch, ländlich) und Verkehrsdichte. Klassifikationslabels gelten für das gesamte Bild und können mit Annotationen auf Objektebene kombiniert werden.

Verwendete Avala-Funktionen

FunktionZweckMehr erfahren
MCAP / ROS-IntegrationMulti-Sensor-Aufnahmen Ihrer Fahrzeugflotte aufnehmenMCAP & ROS
Multi-Sensor-ViewerSynchronisierte Wiedergabe von Kameras, LiDAR, Radar und IMUMulti-Sensor-Viewer
GPU-beschleunigte PunktwolkenLiDAR-Daten mit 6 Visualisierungsmodi inspizierenVisualisierungsübersicht
3D-Quader-AnnotationObjekte in 3D mit Vogelperspektive, Perspektiv- und Seitenansichten labeln3D-Quader-Werkzeug
Objekt-TrackingKonsistente IDs über Frame-SequenzenVideoannotation
Polylinien-AnnotationSpuren, Bordsteine und Straßengrenzen nachzeichnenPolylinien-Werkzeug
Multi-Kamera-Projektion3D-Annotationen auf Kamerabilder projizierenMulti-Kamera-Setup
Batch-Auto-LabelingAnnotationen mit Modellvorhersagen bootstrappenBatch Auto-Labeling
QualitätskontrolleMehrstufige Prüf-WorkflowsQualitätskontrolle
Cloud-SpeicherS3-Buckets für große Fahrdatensätze verbindenCloud-Speicher

Beispiel-Pipeline

Rohe Sensordaten (MCAP-Aufnahmen der Fahrzeugflotte)
  -> Upload zu Avala via Cloud-Speicher-Integration (S3)
  -> Aufnahmen im Multi-Sensor-Viewer erkunden
  -> Kalibrierung mit LiDAR-zu-Kamera-Projektion verifizieren
  -> Annotationsprojekt mit 3D-Quader + Tracking-Aufgabentyp erstellen
  -> Annotatoren labeln 3D-Quader mit Tracking-IDs
  -> Nächsten Batch mit Modellvorhersagen auto-labeln (Batch Auto-Labeling)
  -> QC-Review mit mehrstufigem Workflow
  -> Export in KITTI-, COCO- oder benutzerdefiniertem Format
  -> Wahrnehmungsmodell trainieren
  -> Modellvorhersagen für nächste Runde des Auto-Labelings verwenden

Erste Schritte

1

Ihre Fahrdaten hochladen

Erstellen Sie einen Datensatz mit dem Datentyp mcap und laden Sie MCAP-Aufnahmen Ihrer Flotte hoch. Für große Datensätze verwenden Sie die Cloud-Speicher-Integration, um Ihren S3-Bucket direkt zu verbinden.
2

Im Viewer erkunden

Öffnen Sie eine Aufnahme im Multi-Sensor-Viewer. Verifizieren Sie, dass Kamera-, LiDAR- und Transformationsdaten vorhanden sind. Prüfen Sie die Kalibrierung durch Aktivierung der LiDAR-zu-Kamera-Projektion.
3

Annotationsprojekt einrichten

Erstellen Sie ein Projekt mit 3D-Quader-Annotation, definieren Sie Ihre Label-Taxonomie (Fahrzeug, Fußgänger, Radfahrer usw.) und konfigurieren Sie die Qualitätskontrolleinstellungen.
4

Annotieren und prüfen

Ihr Team annotiert 3D-Quader mit Tracking-IDs. Reviewer verifizieren Annotationen mit Multi-Kamera-Projektion, um Tiefen- und Richtungsfehler zu erkennen.
5

Exportieren und trainieren

Exportieren Sie gelabelte Daten in Ihrem bevorzugten Format. Verwenden Sie das Python oder TypeScript SDK, um Exporte in Ihre Trainingspipeline zu integrieren.

Nächste Schritte

MCAP & ROS

Detaillierter Guide zur Vorbereitung und zum Upload von Multi-Sensor-Aufnahmen.

3D-Quader-Werkzeug

Wie Sie 3D-Quader im Punktwolkeneditor platzieren, anpassen und tracken.

Best Practices für Aufnahmen

Tipps für die Aufnahme von Daten, die gut visualisiert und annotiert werden können.

Qualitätskontrolle

Mehrstufige Prüf-Workflows für Produktionsannotation einrichten.