Passer au contenu principal
Le service d’étiquetage géré d’Avala fournit des annotations de qualité production soutenues par un processus QA structuré, des experts domaine de carrière et des métriques de qualité mesurables. Cette page documente ce à quoi vous pouvez vous attendre lorsque vous utilisez la main-d’œuvre d’Avala pour l’annotation.

Processus qualité

Chaque annotation passe par un pipeline d’assurance qualité à 3 niveaux avant d’atteindre votre export.

Niveau 1 : Vérifications automatisées

Avant qu’un réviseur humain ne voie le résultat, une validation automatisée détecte les erreurs structurelles.
VérificationCe qu’elle détecte
Validation de schémaAttributs requis manquants, valeurs d’étiquettes invalides, coordonnées hors limites
Validation géométriqueBoîtes englobantes de surface nulle, polygones auto-intersectants, cuboïdes en dehors des limites du nuage de points
Vérifications de cohérenceIDs d’objets dupliqués, liens de suivi cassés entre les images, incohérences étiquette/attribut
Vérifications de couvertureRégions non annotées qui devraient avoir des étiquettes selon l’ontologie du projet

Niveau 2 : Révision humaine

Un réviseur dédié — un annotateur senior avec une connaissance approfondie de votre ontologie — inspecte chaque résultat pour la précision, la complétude et la conformité à vos directives d’étiquetage. Les réviseurs vérifient :
  • La classification correcte des objets et les valeurs des attributs
  • L’ajustement précis des boîtes englobantes / polygones / cuboïdes
  • Le suivi cohérent des objets entre les images
  • Les cas limites traités selon vos instructions spécifiques au projet

Niveau 3 : Audit expert

Un échantillon aléatoire de résultats révisés est escaladé vers des experts domaine pour un audit final. Ce niveau calibre la précision des réviseurs et détecte les problèmes systématiques avant qu’ils n’affectent vos données d’entraînement. Les résultats de l’audit alimentent la formation des annotateurs et les affinements des directives, créant une boucle d’amélioration continue.

Objectifs de précision

MétriqueObjectif
Rendement au premier passage> 99 % des annotations acceptées sans retravail
Précision de classification> 99 % d’attribution correcte des étiquettes
Précision de localisationIoU de boîte englobante > 0,90 avec la vérité terrain
Cohérence de suivi> 99 % de continuité correcte des IDs d’objets entre les images
Précision des attributs> 99 % de valeurs d’attributs correctes (occlusion, troncature, etc.)
Les objectifs de précision s’appliquent au service d’étiquetage géré d’Avala. La précision de l’annotation en libre-service dépend des annotateurs de votre équipe et de la configuration QA.

Délais d’exécution

Les délais dépendent de la complexité de l’annotation et du volume. Le tableau ci-dessous montre les délais typiques pour les types d’annotation courants en utilisant le service d’étiquetage géré d’Avala.
Type d’annotationDélai typiqueNotes
Boîtes englobantes 2D (images)1-3 jours ouvrésDétection d’objets standard
Polygones 2D (images)2-5 jours ouvrésSegmentation d’instances
Segmentation sémantique (images)3-7 jours ouvrésClassification au niveau du pixel
Cuboïdes 3D (LiDAR)3-7 jours ouvrésAnnotation de nuages de points avec vues BEV + perspective
Multi-capteurs 3D (LiDAR + caméra)5-10 jours ouvrésAnnotation de capteurs synchronisés
Suivi d’objets vidéo3-7 jours ouvrésPar séquence, dépend du nombre d’images et de la densité d’objets
Annotation de points clés2-5 jours ouvrésEstimation de pose et étiquetage de repères
Le délai commence lorsque les données sont téléchargées et l’ontologie du projet est finalisée. Les jeux de données pilotes (< 1 000 éléments) peuvent souvent être terminés plus rapidement.
Besoin d’un SLA spécifique pour votre projet ? Contactez sales@avala.ai pour discuter d’engagements de délais garantis.

Qualité de la main-d’œuvre

Spécialisation par domaine

Les annotateurs d’Avala sont des professionnels de carrière, pas des travailleurs occasionnels. Chaque annotateur se spécialise dans un domaine spécifique (conduite autonome, robotique, imagerie médicale) pendant 12 mois ou plus.
AttributDétails
Période de spécialisationPlus de 12 mois sur un seul domaine client
FormationIntégration spécifique au projet avec votre ontologie, bibliothèque de cas limites et directives d’étiquetage
Taux de rétention> 90 % de rétention annuelle — les annotateurs développent une connaissance institutionnelle profonde
Taille de l’équipePlus de 15 000 annotateurs tous domaines confondus

Pourquoi la rétention est importante

Une rétention élevée des annotateurs impacte directement la qualité des données :
  • Connaissance institutionnelle — Les annotateurs apprennent vos cas limites, conventions de nommage et nuances spécifiques au domaine au fil du temps. Un nouvel annotateur met des semaines à atteindre le même niveau.
  • Moins de cycles de retravail — Les annotateurs expérimentés produisent moins d’erreurs au premier passage, réduisant les frais de révision et les délais d’exécution.
  • Évolution de l’ontologie — Lorsque vous mettez à jour votre taxonomie d’étiquettes, les annotateurs expérimentés s’adaptent plus rapidement car ils comprennent le raisonnement derrière les changements.

Métriques de qualité via l’API

Les métriques de qualité de vos projets sont disponibles par programmation via l’API et les SDKs.

Métriques au niveau du projet

from avala import Client

client = Client()

# Get project details including quality metrics
projects = client.projects.list()

for project in projects:
    print(f"Project: {project.name}")
    print(f"  Tasks completed: {project.task_count}")

Données de qualité au niveau des tâches

# List tasks with their review status
tasks = client.tasks.list(project="project_uid")

for task in tasks:
    print(f"Task: {task.uid}")
    print(f"  Status: {task.status}")

Export avec métadonnées de qualité

Lorsque vous créez un export, chaque résultat d’annotation inclut son statut de révision QA, vous permettant de filtrer par niveau de qualité dans votre pipeline d’entraînement.
export = client.exports.create(
    name="Training data - QA passed only",
    format="avala-json-external",
    projects=["project_uid"]
)

Configuration du contrôle qualité

Pour l’annotation en libre-service, Avala fournit des flux QA configurables.
FonctionnalitéDescription
Révision multi-étapesAcheminez les annotations à travers une ou plusieurs étapes de révision avant acceptation
Flux de consensusExigez que plusieurs annotateurs s’accordent sur la même étiquette
Critères d’acceptationDéfinissez des seuils minimaux de qualité pour l’acceptation des tâches
Suivi des problèmesSignalez et suivez les problèmes d’annotation avec commentaires et statut de résolution
Accord inter-annotateursMesurez la cohérence entre les annotateurs sur les mêmes données
Consultez Contrôle qualité pour les instructions de configuration.

Prochaines étapes

Guide de contrôle qualité

Configurez la révision multi-étapes, le consensus et les flux d’acceptation pour vos projets.

Traçabilité

Tracez toute annotation jusqu’à ses données sources, son annotateur et sa révision QA.

Pourquoi Avala

Découvrez ce qui distingue Avala de Scale AI, Labelbox et Label Studio.

Contacter les ventes

Discutez de l’étiquetage géré, des SLAs personnalisés et du déploiement entreprise.