Zum Hauptinhalt springen
Avala verknüpft jeden Frame, jedes Label, jede Review-Entscheidung und jede Exportversion in einer einzigen Plattform. Wenn ein Modell an einem Sonderfall scheitert, können Sie die Vorhersage bis zum exakten Trainingslabel zurückverfolgen, das sie beeinflusst hat — und die Ursache beheben, statt zu raten.

Was Rückverfolgbarkeit bei Avala bedeutet

Jede Annotation in Avala trägt vollständige Herkunftsmetadaten:
EntitätWas verfolgt wird
DatensatzelementQuelldatei-URL, Upload-Zeitstempel, Sequenzzugehörigkeit, Sensormetadaten
AufgabeZugewiesener Annotator, Erstellungszeit, Abschlusszeit, Zustandsübergänge
ErgebnisAnnotationsdaten, verwendetes Werkzeug, Annotator-ID, Einreichungszeitstempel
QA-ReviewReviewer-ID, Review-Entscheidung (Akzeptieren/Ablehnen/Korrigieren), Review-Kommentare
ExportExportformat, enthaltene Datensätze/Projekte/Slices, Erstellungszeitstempel, Version
Das bedeutet, Sie können von jedem exportierten Label aus rückwärts durch die gesamte Kette gehen: welcher Annotator es erstellt hat, ob es die QA bestanden hat, von welchem Datensatzelement es stammt und wann jeder Schritt stattfand.

Walkthrough: Einen Modellfehler debuggen

Hier ist ein konkretes Beispiel, wie Rückverfolgbarkeit Ihnen hilft, ein Produktionsmodell-Problem zu debuggen.

1. Modell scheitert an einem Sonderfall

Ihr Wahrnehmungsmodell klassifiziert einen teilweise verdeckten Fußgänger in einem LiDAR-Scan falsch. Sie identifizieren die Vorhersage und möchten verstehen, warum das Modell dieses Verhalten gelernt hat.

2. Trainingsdaten finden

Verwenden Sie das SDK, um Ihre Exporte nach den Datensatzelementen zu durchsuchen, die zum Trainingsset des Modells beigetragen haben.
from avala import Client

client = Client()

# Den für das Training verwendeten Export abrufen
export = client.exports.get("export_abc123")
print(f"Export: {export.name}")
print(f"Format: {export.format}")
print(f"Erstellt: {export.created_at}")

3. Einzelne Ergebnisse inspizieren

Jedes Ergebnis im Export enthält das Quelldatensatzelement, Annotatorinformationen und den QA-Status.
# Aufgaben aus dem im Export verwendeten Projekt auflisten
tasks = client.tasks.list(project="project_uid")

for task in tasks:
    print(f"Aufgabe {task.uid}")
    print(f"  Status: {task.status}")
    print(f"  Datensatz: {task.dataset_name}")
    print(f"  Element: {task.dataset_item_name}")

4. Zur Quelle zurückverfolgen

Sobald Sie das problematische Label identifiziert haben, können Sie das ursprüngliche Datensatzelement nachschlagen, um seine Quelldatei, Sensormetadaten und vollständige Annotationshistorie zu sehen.
# Das spezifische Datensatzelement abrufen
item = client.datasets.get_item(
    dataset="dataset_uid",
    item="item_uid"
)

print(f"Quelle: {item.source_url}")
print(f"Hochgeladen: {item.created_at}")
print(f"Sequenz: {item.sequence_name}")

5. Korrigieren und neu trainieren

Mit der identifizierten Ursache — zum Beispiel ein Annotationsfehler beim verdeckten Fußgänger — korrigieren Sie das Label in Avala, erstellen einen neuen Export und trainieren Ihr Modell mit korrigierten Daten neu.
# Einen neuen Export mit den korrigierten Labels erstellen
new_export = client.exports.create(
    name="Training v2 - fixed occlusion labels",
    format="avala-json-external",
    projects=["project_uid"]
)

print(f"Neuer Export: {new_export.uid}")

Vorteile

Reproduzierbarkeit

Jeder Export ist versioniert. Sie können das exakte Trainingsset, das für jede Modellversion verwendet wurde, durch Referenzierung der Export-UID nachvollziehen. Kein Raten, welche Labels ein- oder ausgeschlossen waren.

Schnelleres Debugging

Anstatt manuell Tausende von Annotationen zu durchsuchen, um einen Fehler zu finden, verfolgen Sie direkt vom Fehler des Modells zum spezifischen Label, das ihn verursacht hat. Was früher Tage dauerte, dauert nun Minuten.

Compliance und Audit-Trails

Für regulierte Branchen (Automobil, Medizin, Verteidigung) liefert die Rückverfolgbarkeit die Dokumentation, die Auditoren benötigen. Jede Annotationsentscheidung ist zugeordnet, zeitgestempelt und mit ihrem QA-Review verknüpft.

Kontinuierliche Verbesserung

Verfolgen Sie die Annotationsqualität über die Zeit, indem Sie die Modellleistung mit bestimmten Annotatoren, Review-Stufen und Datensatzversionen korrelieren. Identifizieren Sie systematische Labeling-Probleme, bevor sie sich durch Ihre Trainingspipeline ausbreiten.

Rückverfolgbarkeit über die API

Alle Rückverfolgbarkeitsdaten sind über die REST API und SDKs verfügbar. Wichtige Endpoints:
EndpointWas zurückgegeben wird
GET /api/v1/exports/{uid}/Export-Metadaten einschließlich Datensätze, Projekte und Erstellungszeitstempel
GET /api/v1/tasks/Aufgabenliste mit Status, Annotator und Datensatzelement-Referenzen
GET /api/v1/datasets/{uid}/items/Datensatzelemente mit Quell-URLs und Sequenzzugehörigkeit
GET /api/v1/datasets/{uid}/sequences/Sequenzen mit Frame-Anzahl und Element-Referenzen
Siehe die API-Referenz für vollständige Endpoint-Dokumentation, oder verwenden Sie das Python SDK und TypeScript SDK für typisierten Zugriff.

Nächste Schritte

Qualitätskontrolle

Erfahren Sie, wie die mehrstufigen QA-Workflows von Avala Annotationsfehler abfangen, bevor sie Ihr Modell erreichen.

Exporte

Erstellen Sie versionierte Exporte Ihrer annotierten Daten mit vollständigen Herkunftsmetadaten.

Qualitäts-SLAs

Verstehen Sie die Qualitätsgarantien, Genauigkeitsziele und Bearbeitungszeiten von Avala.

Python SDK

Installieren Sie das SDK und beginnen Sie, Ihre Daten programmatisch abzufragen.