Die grundlegenden Konzepte der Avala Plattform verstehen
Diese Seite behandelt die Bausteine der Avala Plattform: Visualisierung, Annotation, Datensätze, Projekte, Aufgaben, Organisationen, Labels, Qualitätskontrolle und Sequenzen. Das Verständnis dieser Konzepte hilft Ihnen, effektive Daten-Workflows für Physical AI zu gestalten.
Avala enthält spezialisierte Viewer für verschiedene Datentypen. Der Multi-Sensor-Viewer verarbeitet MCAP- und ROS-Aufnahmen mit synchronisierter Wiedergabe über alle Sensorstreams. Der 3D-Punktwolken-Viewer rendert LiDAR-Daten mit sechs Visualisierungsmodi. Der Gaussian Splat Viewer rendert fotorealistische 3D-Szenenrekonstruktionen mit WebGPU.
Der Multi-Sensor-Viewer organisiert Daten in Panels — unabhängige Visualisierungsfenster für verschiedene Datenstreams. Avala unterstützt acht Paneltypen:
Paneltyp
Beschreibung
Bild
Kamerabilder und Bildstreams
3D / Punktwolke
LiDAR-Scans und 3D-Geometrie
Plot
Zeitreihendaten und numerische Signale
Rohnachrichten
Dekodierte Nachrichteninhalte
Log
Textuelle Log-Streams
Karte
Geografische Position und Trajektorien
Anzeige
Numerische Echtzeit-Messwerte
Zustandsübergänge
Diskrete Zustandsänderungen über die Zeit
Topics werden automatisch anhand ihres Schemas den Panels zugewiesen.
Multi-Fenster-Layouts ordnen Panels in einem konfigurierbaren Raster an. Der Layout-Composer erstellt automatisch optimierte Anordnungen basierend auf den Topics in Ihren Daten, oder Sie passen das Layout manuell durch Ziehen, Größenänderung und Neuanordnung von Panels an.
Alle Panels in einem Viewer teilen eine synchronisierte Zeitleiste. Navigieren Sie Bild für Bild, springen Sie zu bestimmten Zeitstempeln oder geben Sie Aufnahmen mit konfigurierbaren Geschwindigkeiten wieder. Die Zeitleiste hält alle Sensorstreams synchron, unabhängig von ihren individuellen Aufnahmefrequenzen.
MCAP-Aufnahmen enthalten mehrere Sensorstreams (Topics). Jedes Topic überträgt einen bestimmten Datentyp — Bilder, Punktwolken, IMU-Messwerte, GPS-Koordinaten — mit eigener Frequenz. Avala synchronisiert alle Streams nach Zeitstempel, sodass Sie das vollständige Sensorbild zu jedem Zeitpunkt sehen können.
Punktwolkendaten können mit sechs Modi eingefärbt werden:
Modus
Beschreibung
Neutral
Einheitliche Einzelfarbe
Intensität
Eingefärbt nach Rückstrahlstärke
Regenbogen
Zeitliche oder sequentielle Einfärbung
Label
Eingefärbt nach semantischer Klasse
Panoptisch
Eingefärbt nach Instanzidentität
Bildprojektion
Texturiert mit projiziertem Kamerabild
Visualisierungsmodi gelten für den 3D-Punktwolken-Viewer und funktionieren sowohl mit eigenständigen LiDAR-Datensätzen als auch mit Punktwolkenstreams innerhalb von MCAP-Aufnahmen.
Ein Datensatz ist eine Sammlung von Datenelementen (Bilder, Videobilder, Punktwolken oder Multi-Sensor-Aufnahmen), die als Rohmaterial für Visualisierung und Annotation dienen.
Sequenzen gruppieren zusammengehörige Elemente für zeitliche oder Multi-Frame-Daten:
Videobilder aus derselben Aufnahme
LiDAR-Scans aus einer durchgehenden Fahrsitzung
Synchronisierte Multi-Kamera-Aufnahmen bei aufeinanderfolgenden Zeitstempeln
Sequenzen ermöglichen die Bild-für-Bild-Navigation, Objekt-Tracking über Bilder hinweg und zeitliche Konsistenz in Annotationen.Sequenz-Status-Workflow:
Ein Projekt definiert einen Annotations-Workflow, indem es einen oder mehrere Datensätze mit einem bestimmten Aufgabentyp, einer Label-Taxonomie und einer Qualitätskontroll-Konfiguration verbindet.
Eine Aufgabe ist eine einzelne Arbeitseinheit innerhalb eines Projekts. Jede Aufgabe repräsentiert Annotationsarbeit, die an einem oder mehreren Datenelementen von einem einzelnen Annotator durchzuführen ist.
Konsens-Workflows weisen dieselben Daten mehreren Annotatoren unabhängig zu, vergleichen dann die Ergebnisse, um die Übereinstimmung zu messen und mehrdeutige Fälle zu identifizieren.
Qualitätsmetriken helfen, Schulungsbedarf zu identifizieren und konsistente Annotationsstandards in Ihrem Team aufrechtzuerhalten.
Sequenzen sind geordnete Sammlungen von Datenelementen, die zeitliche oder räumliche Abfolgen darstellen — Videobilder, LiDAR-Sweeps oder Multi-Sensor-Aufnahmen.
Flottenmanagement ist in der Vorschau. Die hier beschriebenen Funktionen können sich ändern.
Die Flottenmanagement-Funktionen von Avala ermöglichen es Ihnen, Geräte, Aufnahmen und Telemetrie über Roboterflotten hinweg im großen Maßstab zu verwalten.
Ein Gerät repräsentiert einen physischen Roboter, ein Sensor-Rig oder eine Recheneinheit in Ihrer Flotte. Jedes Gerät hat einen eindeutigen dev_-präfixierten Bezeichner und verfolgt Metadaten wie Typ, Firmware-Version und Status (online, offline, maintenance).
Geräte produzieren Aufnahmen — MCAP-Dateien, die während des Betriebs aufgezeichnet werden. Aufnahmen werden automatisch mit ihrem Quellgerät verknüpft und können nach Gerät, Datum, Status und Tags gefiltert werden.
Events sind zeitgestempelte Markierungen auf Aufnahmen: Fehler, Zustandsänderungen, Anomalien und benutzerdefinierte Annotationen. Events erscheinen auf der Zeitleiste des MCAP-Viewers und können flottenübergreifend abgefragt werden.
Aufnahmeregeln werten Aufnahmen automatisch anhand von Bedingungen aus und führen Aktionen durch (taggen, zur Überprüfung markieren, benachrichtigen), wenn Übereinstimmungen auftreten. Regeln können auf Schwellenwerte, Muster, Frequenzen oder Datenabwesenheit reagieren.
Warnungen benachrichtigen Ihr Team, wenn sich Flottenbedingungen ändern. Leiten Sie Warnungen an Slack, E-Mail, Webhooks oder In-App-Benachrichtigungen weiter. Warnungen folgen einem Lebenszyklus: open → acknowledged → resolved.