Passer au contenu principal
Avala relie chaque image, étiquette, décision de révision et version d’export dans une seule plateforme. Lorsqu’un modèle échoue sur un cas limite, vous pouvez tracer la prédiction jusqu’à l’étiquette d’entraînement exacte qui l’a influencée — et corriger la cause première au lieu de deviner.

Ce que signifie la traçabilité dans Avala

Chaque annotation dans Avala porte des métadonnées de lignage complètes :
EntitéCe qui est suivi
Élément de jeu de donnéesURL du fichier source, horodatage de téléchargement, appartenance à une séquence, métadonnées du capteur
TâcheAnnotateur assigné, heure de création, heure de complétion, transitions d’état
RésultatDonnées d’annotation, outil utilisé, ID de l’annotateur, horodatage de soumission
Révision QAID du réviseur, décision de révision (accepter/rejeter/corriger), commentaires de révision
ExportFormat d’export, jeux de données/projets/slices inclus, horodatage de création, version
Cela signifie que vous pouvez partir de n’importe quelle étiquette exportée et remonter toute la chaîne : quel annotateur l’a créée, si elle a passé la QA, de quel élément de jeu de données elle provient, et quand chaque étape s’est produite.

Démonstration : Débogage d’une défaillance de modèle

Voici un exemple concret de comment la traçabilité vous aide à déboguer un problème de modèle en production.

1. Le modèle échoue sur un cas limite

Votre modèle de perception classifie mal un piéton partiellement occulté dans un scan LiDAR. Vous identifiez la prédiction et voulez comprendre pourquoi le modèle a appris ce comportement.

2. Trouver les données d’entraînement

Utilisez le SDK pour rechercher dans vos exports les éléments de jeu de données qui ont contribué à l’ensemble d’entraînement du modèle.
from avala import Client

client = Client()

# Get the export used for training
export = client.exports.get("export_abc123")
print(f"Export: {export.name}")
print(f"Format: {export.format}")
print(f"Created: {export.created_at}")

3. Inspecter les résultats individuels

Chaque résultat dans l’export inclut l’élément source du jeu de données, les informations sur l’annotateur et le statut QA.
# List tasks from the project used in the export
tasks = client.tasks.list(project="project_uid")

for task in tasks:
    print(f"Task {task.uid}")
    print(f"  Status: {task.status}")
    print(f"  Dataset: {task.dataset_name}")
    print(f"  Item: {task.dataset_item_name}")

4. Remonter à la source

Une fois que vous avez identifié l’étiquette problématique, vous pouvez rechercher l’élément original du jeu de données pour voir son fichier source, les métadonnées du capteur et l’historique complet des annotations.
# Get the specific dataset item
item = client.datasets.get_item(
    dataset="dataset_uid",
    item="item_uid"
)

print(f"Source: {item.source_url}")
print(f"Uploaded: {item.created_at}")
print(f"Sequence: {item.sequence_name}")

5. Corriger et ré-entraîner

La cause première identifiée — par exemple, une erreur d’annotation sur le piéton occulté — vous corrigez l’étiquette dans Avala, créez un nouvel export et ré-entraînez votre modèle avec les données corrigées.
# Create a new export with the corrected labels
new_export = client.exports.create(
    name="Training v2 - fixed occlusion labels",
    format="avala-json-external",
    projects=["project_uid"]
)

print(f"New export: {new_export.uid}")

Avantages

Reproductibilité

Chaque export est versionné. Vous pouvez recréer l’ensemble d’entraînement exact utilisé pour n’importe quelle version de modèle en référençant l’UID de l’export. Plus de doutes sur les étiquettes incluses ou exclues.

Débogage plus rapide

Au lieu de chercher manuellement parmi des milliers d’annotations pour trouver une erreur, vous tracez directement de la défaillance du modèle à l’étiquette spécifique qui l’a causée. Ce qui prenait des jours ne prend que quelques minutes.

Conformité et pistes d’audit

Pour les industries réglementées (automobile, médical, défense), la traçabilité fournit la documentation que les auditeurs exigent. Chaque décision d’annotation est attribuée, horodatée et liée à sa révision QA.

Amélioration continue

Suivez la qualité des annotations au fil du temps en corrélant les performances du modèle avec des annotateurs spécifiques, des étapes de révision et des versions de jeux de données. Identifiez les problèmes d’étiquetage systématiques avant qu’ils ne se propagent dans votre pipeline d’entraînement.

Traçabilité via l’API

Toutes les données de traçabilité sont disponibles via la REST API et les SDKs. Endpoints clés :
EndpointCe qu’il retourne
GET /api/v1/exports/{uid}/Métadonnées d’export incluant les jeux de données, projets et horodatage de création
GET /api/v1/tasks/Liste de tâches avec statut, annotateur et références aux éléments de jeu de données
GET /api/v1/datasets/{uid}/items/Éléments de jeu de données avec URLs sources et appartenance aux séquences
GET /api/v1/datasets/{uid}/sequences/Séquences avec nombre d’images et références aux éléments
Consultez la Référence API pour la documentation complète des endpoints, ou utilisez le Python SDK et le TypeScript SDK pour un accès typé.

Prochaines étapes

Contrôle qualité

Découvrez comment les flux QA multi-étapes d’Avala détectent les erreurs d’annotation avant qu’elles n’atteignent votre modèle.

Exports

Créez des exports versionnés de vos données annotées avec des métadonnées de lignage complètes.

SLAs de qualité

Comprenez les garanties de qualité, les objectifs de précision et les délais d’exécution d’Avala.

Python SDK

Installez le SDK et commencez à interroger vos données par programmation.