Zum Hauptinhalt springen
Avala ist die Plattform, auf der Robotik-, autonome Fahrzeug- und Physical AI Teams ihre Sensordaten visualisieren, erkunden und annotieren — alles an einem Ort. Laden Sie MCAP-Aufnahmen, LiDAR-Scans, Kamerafeeds oder Gaussian Splat Szenen hoch. Spielen Sie diese in einem GPU-beschleunigten Multi-Sensor-Viewer mit synchronisierten Zeitleisten und konfigurierbaren Panel-Layouts ab. Wenn Sie bereit zum Labeln sind, wechseln Sie in den Annotationsmodus für dieselben Daten — keine Exporte, kein Werkzeugwechsel, kein erneutes Hochladen. Die Plattform deckt den gesamten Lebenszyklus ab, von Rohdaten der Sensoren bis hin zu gelabelten Trainingsdatensätzen.

Wer nutzt Avala

  • Autonome Fahrzeugteams — Labeln Sie Kamerabilder, LiDAR-Punktwolken und synchronisierte Multi-Sensor-Aufnahmen für das Training von Wahrnehmungsmodellen. Visualisieren und debuggen Sie MCAP/ROS-Daten mit Multi-Kamera-Projektion.
  • Robotik-Unternehmen — Annotieren Sie Wahrnehmungsdaten für Navigation, Manipulation und Szenenverständnis. Erkunden Sie 3D-Punktwolken mit GPU-beschleunigtem Rendering.
  • Physical AI / Spatial Computing Teams — Arbeiten Sie mit Gaussian Splat Szenen, dichten Punktwolken und multimodalen Sensordaten für 3D-Weltverständnis und Sim-to-Real-Transfer.
  • KI/ML-Teams — Erstellen Sie Trainingsdatensätze für Objekterkennung, Segmentierung, Klassifikation und Tracking über Bilder, Video und 3D-Daten hinweg.
  • Forschungslabore — Erstellen Sie gelabelte Datensätze für Computer Vision und 3D-Wahrnehmungsforschung mit professionellen Annotationswerkzeugen und Qualitätskontroll-Workflows.

Plattformfähigkeiten

Visualisierung

Die Visualisierungsengine von Avala läuft vollständig im Browser, angetrieben durch WebGPU und WebGL.
  • Multi-Sensor MCAP/ROS-Wiedergabe — Öffnen Sie MCAP-Dateien mit Kamera-, LiDAR-, Radar- und IMU-Daten. Der Viewer erkennt automatisch Topics und weist Paneltypen aus 8 verfügbaren zu: Bild, 3D / Punktwolke, Plot, Rohnachrichten, Log, Karte, Anzeige und Zustandsübergänge.
  • GPU-beschleunigtes 3D-Punktwolken-Rendering — Rendern Sie Punktwolken mit 6 Visualisierungsmodi: Neutral, Intensität, Regenbogen, Label, Panoptisch und Bildprojektion. WebGPU Compute Shader übernehmen Frustum Culling und Level-of-Detail-Auswahl auf der GPU.
  • Gaussian Splat Viewer — Untersuchen Sie 3D-Szenenrekonstruktionen in einem WebGPU-beschleunigten Gaussian Splat Viewer mit Szenenhierarchie, Eigenschaftenpanel und Statistik-Overlay.
  • Multi-Kamera synchronisierte Wiedergabe — Betrachten Sie mehrere Kamerastreams synchron mit LiDAR-zu-Kamera-Projektionsüberlagerungen. Unterstützt Pinhole- und Double-Sphere- (Fisheye-) Kameramodelle.
  • Konfigurierbare Multi-Fenster-Layouts — Drag-and-Drop-Panelanordnung mit veränderbaren geteilten Ansichten. Das Standardlayout platziert eine Topics-Seitenleiste, Inhaltspanels und ein Dateiinfo-Panel in einer horizontalen Stammkonfiguration.
  • Zeitleistenbasierte Navigation — Bildweises Durchgehen, Zeitstempel-Suche und Wiedergabegeschwindigkeitskontrolle über alle synchronisierten Sensorstreams.

Annotation

Professionelle Annotationswerkzeuge für jede Datenmodalität, unterstützt durch Qualitätskontrolle und Team-Workflows.
  • Bounding Boxes — 2D-Rechteckbereiche für Objekterkennung
  • Polygone — Beliebige Formen für präzise Objektgrenzen
  • 3D-Quader — 3D-Bounding Boxes in Punktwolken- und Multi-Sensor-Daten mit Vogelperspektive, Perspektiv- und Seitenansichten
  • Segmentierung — Pixelgenaue Klassifikationsmasken
  • Polylinien — Pfad-, Spur- und Kantenannotationen
  • Keypoints — Landmarken- und Posenannotationen
  • Klassifikation — Labels auf Szenen- und Objektebene
Die Qualitätskontrolle umfasst mehrstufige Prüf-Workflows, Annotationsproblem-Tracking, Inter-Annotator-Agreement-Metriken und Konsens-Workflows. Objekt-Tracking bietet konsistente IDs über Video- und Sequenzbilder hinweg. Managed Labeling Services stehen für Teams zur Verfügung, die professionelle Annotatoren benötigen, die auf ihre Domäne geschult sind.

Unterstützte Datentypen

Avala verarbeitet fünf Datenmodalitäten, jeweils mit speziell entwickelten Visualisierungs- und Annotations-Workflows:
DatentypFormateBeschreibung
BilderJPEG, PNG, WebPEinzelbild-Visualisierung und Annotation mit allen 2D-Werkzeugen
VideoMP4, MOVKonvertiert in Bildsequenzen für Wiedergabe, Bild-für-Bild-Annotation und Objekt-Tracking
PunktwolkenPCD, PLY3D-LiDAR-Scans mit GPU-beschleunigtem Rendering und Quader-Annotation
MCAP / ROSMCAPMulti-Sensor-Container mit Kamera-, LiDAR-, Radar- und IMU-Daten; Multi-Panel-Wiedergabe und Multi-Kamera-Projektion
SplatGaussian Splat3D-Szenenvisualisierung und -annotation in WebGPU-gerenderten Gaussian Splat Umgebungen

SDKs

Python SDK

Installation mit pip install avala — vollständige Type Hints und Async-Unterstützung.

TypeScript SDK

Installation mit npm install @avala-ai/sdk — funktioniert in Node.js und Browsern.

Die Plattform erkunden

Visualisierung

Visualisierung

GPU-beschleunigter Multi-Sensor-Viewer mit 8 Paneltypen, 6 Punktwolken-Darstellungsmodi und Gaussian Splat Unterstützung.

Annotation

Annotation

Professionelle Annotationswerkzeuge für 2D-, 3D-, Video- und Multi-Sensor-Daten mit Qualitätskontrolle.

Integrationen

Integrationen

Verbinden Sie S3, MCP, MCAP/ROS, Webhooks und Inferenz-Pipelines.

Nächste Schritte

Schnellstart

Erstellen Sie Ihr erstes Annotationsprojekt in unter 60 Sekunden.

Grundkonzepte

Verstehen Sie Datensätze, Projekte, Aufgaben und den Annotationslebenszyklus.

Visualisierung

Erkunden Sie den Multi-Sensor-Viewer, den 3D-Punktwolken-Renderer und den Gaussian Splat Viewer.

SDKs

Installieren Sie das Python oder TypeScript SDK und beginnen Sie mit der Entwicklung.