Proceso de calidad
Cada anotación pasa por un pipeline de aseguramiento de calidad de 3 capas antes de llegar a su exportación.Capa 1: Verificaciones automatizadas
Antes de que un revisor humano vea el resultado, la validación automatizada detecta errores estructurales.| Verificación | Qué detecta |
|---|---|
| Validación de esquema | Atributos requeridos faltantes, valores de etiqueta inválidos, coordenadas fuera de rango |
| Validación geométrica | Bounding boxes de área cero, polígonos auto-intersectantes, cuboides fuera de los límites de la nube de puntos |
| Verificaciones de consistencia | IDs de objetos duplicados, enlaces de seguimiento rotos entre fotogramas, desajustes de etiqueta/atributo |
| Verificaciones de cobertura | Regiones sin anotar que deberían tener etiquetas según la ontología del proyecto |
Capa 2: Revisión humana
Un revisor dedicado — un anotador senior con conocimiento profundo de su ontología — inspecciona cada resultado para verificar precisión, completitud y adherencia a sus guías de etiquetado. Los revisores verifican:- Clasificación correcta de objetos y valores de atributos
- Ajuste preciso de bounding box / polígono / cuboide
- Seguimiento consistente de objetos entre fotogramas
- Casos límite manejados según las instrucciones específicas de su proyecto
Capa 3: Auditoría experta
Una muestra aleatoria de resultados revisados se escala a expertos de dominio para una auditoría final. Esta capa calibra la precisión del revisor y detecta problemas sistemáticos antes de que afecten sus datos de entrenamiento. Los hallazgos de la auditoría alimentan la capacitación de anotadores y las mejoras de guías, creando un ciclo de mejora continua.Objetivos de precisión
| Métrica | Objetivo |
|---|---|
| Rendimiento en primer pase | > 99% de anotaciones aceptadas sin retrabajo |
| Precisión de clasificación | > 99% de asignación correcta de etiquetas |
| Precisión de localización | IoU de bounding box > 0,90 con ground truth |
| Consistencia de seguimiento | > 99% de continuidad correcta de ID de objeto entre fotogramas |
| Precisión de atributos | > 99% de valores de atributos correctos (oclusión, truncamiento, etc.) |
Los objetivos de precisión aplican al servicio de etiquetado gestionado de Avala. La precisión de anotación en autoservicio depende de los anotadores de su equipo y la configuración de QA.
Tiempos de entrega
Los tiempos de entrega dependen de la complejidad de la anotación y el volumen. La tabla a continuación muestra plazos típicos para tipos comunes de anotación al usar el servicio de etiquetado gestionado de Avala.| Tipo de anotación | Entrega típica | Notas |
|---|---|---|
| Bounding boxes 2D (imágenes) | 1-3 días hábiles | Detección de objetos estándar |
| Polígonos 2D (imágenes) | 2-5 días hábiles | Segmentación de instancias |
| Segmentación semántica (imágenes) | 3-7 días hábiles | Clasificación a nivel de píxel |
| Cuboides 3D (LiDAR) | 3-7 días hábiles | Anotación de nubes de puntos con vistas BEV + perspectiva |
| 3D multi-sensor (LiDAR + cámara) | 5-10 días hábiles | Anotación sincronizada de sensores |
| Seguimiento de objetos en video | 3-7 días hábiles | Por secuencia, depende del conteo de fotogramas y densidad de objetos |
| Anotación de keypoints | 2-5 días hábiles | Estimación de pose y etiquetado de puntos de referencia |
Calidad de la fuerza laboral
Especialización de dominio
Los anotadores de Avala son profesionales de carrera, no trabajadores temporales. Cada anotador se especializa en un dominio específico (conducción autónoma, robótica, imágenes médicas) durante 12 meses o más.| Atributo | Detalles |
|---|---|
| Período de especialización | 12+ meses en un solo dominio de cliente |
| Capacitación | Incorporación específica del proyecto con su ontología, biblioteca de casos límite y guías de etiquetado |
| Tasa de retención | > 90% de retención anual — los anotadores construyen conocimiento institucional profundo |
| Tamaño del equipo | Más de 15.000 anotadores en todos los dominios |
Por qué importa la retención
La alta retención de anotadores impacta directamente la calidad de los datos:- Conocimiento institucional — Los anotadores aprenden sus casos límite, convenciones de nomenclatura y matices específicos del dominio con el tiempo. Un nuevo anotador tarda semanas en alcanzar el mismo nivel.
- Menos ciclos de retrabajo — Los anotadores experimentados producen menos errores en el primer pase, reduciendo la sobrecarga de revisión y el tiempo de entrega.
- Evolución de ontología — Cuando actualiza su taxonomía de etiquetas, los anotadores experimentados se adaptan más rápido porque entienden el razonamiento detrás de los cambios.
Métricas de calidad a través de la API
Las métricas de calidad de sus proyectos están disponibles programáticamente a través de la API y los SDKs.Métricas a nivel de proyecto
Datos de calidad a nivel de tarea
Exportación con metadatos de calidad
Cuando crea una exportación, cada resultado de anotación incluye su estado de revisión de QA, permitiéndole filtrar por nivel de calidad en su pipeline de entrenamiento.Configuración de control de calidad
Para anotación de autoservicio, Avala proporciona flujos de QA configurables.| Característica | Descripción |
|---|---|
| Revisión multi-etapa | Enrute anotaciones a través de una o más etapas de revisión antes de la aceptación |
| Flujos de consenso | Requiera que múltiples anotadores coincidan en la misma etiqueta |
| Criterios de aceptación | Establezca umbrales mínimos de calidad para la aceptación de tareas |
| Seguimiento de problemas | Señale y rastree problemas de anotación con comentarios y estado de resolución |
| Acuerdo entre anotadores | Mida la consistencia entre anotadores sobre los mismos datos |
Próximos pasos
Guía de control de calidad
Configure revisión multi-etapa, consenso y flujos de aceptación para sus proyectos.
Trazabilidad
Trace cualquier anotación hasta sus datos de origen, anotador y revisión de QA.
Por qué Avala
Vea qué hace diferente a Avala de Scale AI, Labelbox y Label Studio.
Hable con ventas
Discuta etiquetado gestionado, SLAs personalizados y despliegue enterprise.