Saltar al contenido principal
El servicio de etiquetado gestionado de Avala entrega anotaciones de calidad para producción respaldadas por un proceso de QA estructurado, expertos de dominio profesionales y métricas de calidad medibles. Esta página documenta lo que puede esperar cuando usa la fuerza laboral de Avala para anotación.

Proceso de calidad

Cada anotación pasa por un pipeline de aseguramiento de calidad de 3 capas antes de llegar a su exportación.

Capa 1: Verificaciones automatizadas

Antes de que un revisor humano vea el resultado, la validación automatizada detecta errores estructurales.
VerificaciónQué detecta
Validación de esquemaAtributos requeridos faltantes, valores de etiqueta inválidos, coordenadas fuera de rango
Validación geométricaBounding boxes de área cero, polígonos auto-intersectantes, cuboides fuera de los límites de la nube de puntos
Verificaciones de consistenciaIDs de objetos duplicados, enlaces de seguimiento rotos entre fotogramas, desajustes de etiqueta/atributo
Verificaciones de coberturaRegiones sin anotar que deberían tener etiquetas según la ontología del proyecto

Capa 2: Revisión humana

Un revisor dedicado — un anotador senior con conocimiento profundo de su ontología — inspecciona cada resultado para verificar precisión, completitud y adherencia a sus guías de etiquetado. Los revisores verifican:
  • Clasificación correcta de objetos y valores de atributos
  • Ajuste preciso de bounding box / polígono / cuboide
  • Seguimiento consistente de objetos entre fotogramas
  • Casos límite manejados según las instrucciones específicas de su proyecto

Capa 3: Auditoría experta

Una muestra aleatoria de resultados revisados se escala a expertos de dominio para una auditoría final. Esta capa calibra la precisión del revisor y detecta problemas sistemáticos antes de que afecten sus datos de entrenamiento. Los hallazgos de la auditoría alimentan la capacitación de anotadores y las mejoras de guías, creando un ciclo de mejora continua.

Objetivos de precisión

MétricaObjetivo
Rendimiento en primer pase> 99% de anotaciones aceptadas sin retrabajo
Precisión de clasificación> 99% de asignación correcta de etiquetas
Precisión de localizaciónIoU de bounding box > 0,90 con ground truth
Consistencia de seguimiento> 99% de continuidad correcta de ID de objeto entre fotogramas
Precisión de atributos> 99% de valores de atributos correctos (oclusión, truncamiento, etc.)
Los objetivos de precisión aplican al servicio de etiquetado gestionado de Avala. La precisión de anotación en autoservicio depende de los anotadores de su equipo y la configuración de QA.

Tiempos de entrega

Los tiempos de entrega dependen de la complejidad de la anotación y el volumen. La tabla a continuación muestra plazos típicos para tipos comunes de anotación al usar el servicio de etiquetado gestionado de Avala.
Tipo de anotaciónEntrega típicaNotas
Bounding boxes 2D (imágenes)1-3 días hábilesDetección de objetos estándar
Polígonos 2D (imágenes)2-5 días hábilesSegmentación de instancias
Segmentación semántica (imágenes)3-7 días hábilesClasificación a nivel de píxel
Cuboides 3D (LiDAR)3-7 días hábilesAnotación de nubes de puntos con vistas BEV + perspectiva
3D multi-sensor (LiDAR + cámara)5-10 días hábilesAnotación sincronizada de sensores
Seguimiento de objetos en video3-7 días hábilesPor secuencia, depende del conteo de fotogramas y densidad de objetos
Anotación de keypoints2-5 días hábilesEstimación de pose y etiquetado de puntos de referencia
El plazo comienza cuando los datos se suben y la ontología del proyecto está finalizada. Los datasets piloto (< 1.000 elementos) a menudo pueden completarse más rápido.
¿Necesita un SLA específico para su proyecto? Contacte a sales@avala.ai para discutir compromisos de entrega garantizados.

Calidad de la fuerza laboral

Especialización de dominio

Los anotadores de Avala son profesionales de carrera, no trabajadores temporales. Cada anotador se especializa en un dominio específico (conducción autónoma, robótica, imágenes médicas) durante 12 meses o más.
AtributoDetalles
Período de especialización12+ meses en un solo dominio de cliente
CapacitaciónIncorporación específica del proyecto con su ontología, biblioteca de casos límite y guías de etiquetado
Tasa de retención> 90% de retención anual — los anotadores construyen conocimiento institucional profundo
Tamaño del equipoMás de 15.000 anotadores en todos los dominios

Por qué importa la retención

La alta retención de anotadores impacta directamente la calidad de los datos:
  • Conocimiento institucional — Los anotadores aprenden sus casos límite, convenciones de nomenclatura y matices específicos del dominio con el tiempo. Un nuevo anotador tarda semanas en alcanzar el mismo nivel.
  • Menos ciclos de retrabajo — Los anotadores experimentados producen menos errores en el primer pase, reduciendo la sobrecarga de revisión y el tiempo de entrega.
  • Evolución de ontología — Cuando actualiza su taxonomía de etiquetas, los anotadores experimentados se adaptan más rápido porque entienden el razonamiento detrás de los cambios.

Métricas de calidad a través de la API

Las métricas de calidad de sus proyectos están disponibles programáticamente a través de la API y los SDKs.

Métricas a nivel de proyecto

from avala import Client

client = Client()

# Get project details including quality metrics
projects = client.projects.list()

for project in projects:
    print(f"Project: {project.name}")
    print(f"  Tasks completed: {project.task_count}")

Datos de calidad a nivel de tarea

# List tasks with their review status
tasks = client.tasks.list(project="project_uid")

for task in tasks:
    print(f"Task: {task.uid}")
    print(f"  Status: {task.status}")

Exportación con metadatos de calidad

Cuando crea una exportación, cada resultado de anotación incluye su estado de revisión de QA, permitiéndole filtrar por nivel de calidad en su pipeline de entrenamiento.
export = client.exports.create(
    name="Training data - QA passed only",
    format="avala-json-external",
    projects=["project_uid"]
)

Configuración de control de calidad

Para anotación de autoservicio, Avala proporciona flujos de QA configurables.
CaracterísticaDescripción
Revisión multi-etapaEnrute anotaciones a través de una o más etapas de revisión antes de la aceptación
Flujos de consensoRequiera que múltiples anotadores coincidan en la misma etiqueta
Criterios de aceptaciónEstablezca umbrales mínimos de calidad para la aceptación de tareas
Seguimiento de problemasSeñale y rastree problemas de anotación con comentarios y estado de resolución
Acuerdo entre anotadoresMida la consistencia entre anotadores sobre los mismos datos
Consulte Control de calidad para instrucciones de configuración.

Próximos pasos

Guía de control de calidad

Configure revisión multi-etapa, consenso y flujos de aceptación para sus proyectos.

Trazabilidad

Trace cualquier anotación hasta sus datos de origen, anotador y revisión de QA.

Por qué Avala

Vea qué hace diferente a Avala de Scale AI, Labelbox y Label Studio.

Hable con ventas

Discuta etiquetado gestionado, SLAs personalizados y despliegue enterprise.