Was Rückverfolgbarkeit bei Avala bedeutet
Jede Annotation in Avala trägt vollständige Herkunftsmetadaten:| Entität | Was verfolgt wird |
|---|---|
| Datensatzelement | Quelldatei-URL, Upload-Zeitstempel, Sequenzzugehörigkeit, Sensormetadaten |
| Aufgabe | Zugewiesener Annotator, Erstellungszeit, Abschlusszeit, Zustandsübergänge |
| Ergebnis | Annotationsdaten, verwendetes Werkzeug, Annotator-ID, Einreichungszeitstempel |
| QA-Review | Reviewer-ID, Review-Entscheidung (Akzeptieren/Ablehnen/Korrigieren), Review-Kommentare |
| Export | Exportformat, enthaltene Datensätze/Projekte/Slices, Erstellungszeitstempel, Version |
Walkthrough: Einen Modellfehler debuggen
Hier ist ein konkretes Beispiel, wie Rückverfolgbarkeit Ihnen hilft, ein Produktionsmodell-Problem zu debuggen.1. Modell scheitert an einem Sonderfall
Ihr Wahrnehmungsmodell klassifiziert einen teilweise verdeckten Fußgänger in einem LiDAR-Scan falsch. Sie identifizieren die Vorhersage und möchten verstehen, warum das Modell dieses Verhalten gelernt hat.2. Trainingsdaten finden
Verwenden Sie das SDK, um Ihre Exporte nach den Datensatzelementen zu durchsuchen, die zum Trainingsset des Modells beigetragen haben.3. Einzelne Ergebnisse inspizieren
Jedes Ergebnis im Export enthält das Quelldatensatzelement, Annotatorinformationen und den QA-Status.4. Zur Quelle zurückverfolgen
Sobald Sie das problematische Label identifiziert haben, können Sie das ursprüngliche Datensatzelement nachschlagen, um seine Quelldatei, Sensormetadaten und vollständige Annotationshistorie zu sehen.5. Korrigieren und neu trainieren
Mit der identifizierten Ursache — zum Beispiel ein Annotationsfehler beim verdeckten Fußgänger — korrigieren Sie das Label in Avala, erstellen einen neuen Export und trainieren Ihr Modell mit korrigierten Daten neu.Vorteile
Reproduzierbarkeit
Jeder Export ist versioniert. Sie können das exakte Trainingsset, das für jede Modellversion verwendet wurde, durch Referenzierung der Export-UID nachvollziehen. Kein Raten, welche Labels ein- oder ausgeschlossen waren.Schnelleres Debugging
Anstatt manuell Tausende von Annotationen zu durchsuchen, um einen Fehler zu finden, verfolgen Sie direkt vom Fehler des Modells zum spezifischen Label, das ihn verursacht hat. Was früher Tage dauerte, dauert nun Minuten.Compliance und Audit-Trails
Für regulierte Branchen (Automobil, Medizin, Verteidigung) liefert die Rückverfolgbarkeit die Dokumentation, die Auditoren benötigen. Jede Annotationsentscheidung ist zugeordnet, zeitgestempelt und mit ihrem QA-Review verknüpft.Kontinuierliche Verbesserung
Verfolgen Sie die Annotationsqualität über die Zeit, indem Sie die Modellleistung mit bestimmten Annotatoren, Review-Stufen und Datensatzversionen korrelieren. Identifizieren Sie systematische Labeling-Probleme, bevor sie sich durch Ihre Trainingspipeline ausbreiten.Rückverfolgbarkeit über die API
Alle Rückverfolgbarkeitsdaten sind über die REST API und SDKs verfügbar. Wichtige Endpoints:| Endpoint | Was zurückgegeben wird |
|---|---|
GET /api/v1/exports/{uid}/ | Export-Metadaten einschließlich Datensätze, Projekte und Erstellungszeitstempel |
GET /api/v1/tasks/ | Aufgabenliste mit Status, Annotator und Datensatzelement-Referenzen |
GET /api/v1/datasets/{uid}/items/ | Datensatzelemente mit Quell-URLs und Sequenzzugehörigkeit |
GET /api/v1/datasets/{uid}/sequences/ | Sequenzen mit Frame-Anzahl und Element-Referenzen |
Nächste Schritte
Qualitätskontrolle
Erfahren Sie, wie die mehrstufigen QA-Workflows von Avala Annotationsfehler abfangen, bevor sie Ihr Modell erreichen.
Exporte
Erstellen Sie versionierte Exporte Ihrer annotierten Daten mit vollständigen Herkunftsmetadaten.
Qualitäts-SLAs
Verstehen Sie die Qualitätsgarantien, Genauigkeitsziele und Bearbeitungszeiten von Avala.
Python SDK
Installieren Sie das SDK und beginnen Sie, Ihre Daten programmatisch abzufragen.