Saltar al contenido principal
Avala enlaza cada fotograma, etiqueta, decisión de revisión y versión de exportación en una sola plataforma. Cuando un modelo falla en un caso límite, puede trazar la predicción hasta la etiqueta de entrenamiento exacta que la influyó — y corregir la causa raíz en lugar de adivinar.

Qué significa trazabilidad en Avala

Cada anotación en Avala lleva metadatos de linaje completos:
EntidadQué se rastrea
Elemento del datasetURL del archivo fuente, marca de tiempo de subida, pertenencia a secuencia, metadatos del sensor
TareaAnotador asignado, hora de creación, hora de finalización, transiciones de estado
ResultadoDatos de anotación, herramienta utilizada, ID del anotador, marca de tiempo de envío
Revisión de QAID del revisor, decisión de revisión (aceptar/rechazar/corregir), comentarios de revisión
ExportaciónFormato de exportación, datasets/proyectos/slices incluidos, marca de tiempo de creación, versión
Esto significa que puede partir de cualquier etiqueta exportada y recorrer hacia atrás toda la cadena: qué anotador la creó, si pasó QA, de qué elemento del dataset provino y cuándo ocurrió cada paso.

Recorrido: Depuración de un fallo del modelo

Aquí hay un ejemplo concreto de cómo la trazabilidad le ayuda a depurar un problema de modelo en producción.

1. El modelo falla en un caso límite

Su modelo de percepción clasifica incorrectamente un peatón parcialmente ocluido en un escaneo LiDAR. Identifica la predicción y quiere entender por qué el modelo aprendió este comportamiento.

2. Encontrar los datos de entrenamiento

Use el SDK para buscar en sus exportaciones los elementos del dataset que contribuyeron al conjunto de entrenamiento del modelo.
from avala import Client

client = Client()

# Get the export used for training
export = client.exports.get("export_abc123")
print(f"Export: {export.name}")
print(f"Format: {export.format}")
print(f"Created: {export.created_at}")

3. Inspeccionar resultados individuales

Cada resultado en la exportación incluye el elemento del dataset de origen, información del anotador y estado de QA.
# List tasks from the project used in the export
tasks = client.tasks.list(project="project_uid")

for task in tasks:
    print(f"Task {task.uid}")
    print(f"  Status: {task.status}")
    print(f"  Dataset: {task.dataset_name}")
    print(f"  Item: {task.dataset_item_name}")

4. Trazar hasta el origen

Una vez que identifica la etiqueta problemática, puede buscar el elemento original del dataset para ver su archivo fuente, metadatos del sensor e historial completo de anotación.
# Get the specific dataset item
item = client.datasets.get_item(
    dataset="dataset_uid",
    item="item_uid"
)

print(f"Source: {item.source_url}")
print(f"Uploaded: {item.created_at}")
print(f"Sequence: {item.sequence_name}")

5. Corregir y reentrenar

Con la causa raíz identificada — por ejemplo, un error de anotación en el peatón ocluido — corrija la etiqueta en Avala, cree una nueva exportación y reentrene su modelo con datos corregidos.
# Create a new export with the corrected labels
new_export = client.exports.create(
    name="Training v2 - fixed occlusion labels",
    format="avala-json-external",
    projects=["project_uid"]
)

print(f"New export: {new_export.uid}")

Beneficios

Reproducibilidad

Cada exportación está versionada. Puede recrear el conjunto de entrenamiento exacto usado para cualquier versión de modelo haciendo referencia al UID de exportación. Sin adivinar qué etiquetas se incluyeron o excluyeron.

Depuración más rápida

En lugar de buscar manualmente entre miles de anotaciones para encontrar un error, trace directamente desde el fallo del modelo hasta la etiqueta específica que lo causó. Lo que solía tomar días ahora toma minutos.

Cumplimiento y pistas de auditoría

Para industrias reguladas (automotriz, médica, defensa), la trazabilidad proporciona la pista de documentación que los auditores requieren. Cada decisión de anotación está atribuida, marcada con tiempo y enlazada a su revisión de QA.

Mejora continua

Rastree la calidad de anotación con el tiempo correlacionando el rendimiento del modelo con anotadores específicos, etapas de revisión y versiones de datasets. Identifique problemas sistemáticos de etiquetado antes de que se propaguen a través de su pipeline de entrenamiento.

Trazabilidad a través de la API

Todos los datos de trazabilidad están disponibles a través de la REST API y los SDKs. Endpoints clave:
EndpointQué devuelve
GET /api/v1/exports/{uid}/Metadatos de exportación incluyendo datasets, proyectos y marca de tiempo de creación
GET /api/v1/tasks/Lista de tareas con estado, anotador y referencias a elementos del dataset
GET /api/v1/datasets/{uid}/items/Elementos del dataset con URLs de origen y pertenencia a secuencias
GET /api/v1/datasets/{uid}/sequences/Secuencias con conteo de fotogramas y referencias a elementos
Consulte la Referencia de la API para documentación completa de endpoints, o use el Python SDK y TypeScript SDK para acceso tipado.

Próximos pasos

Control de calidad

Conozca cómo los flujos de QA multi-etapa de Avala detectan errores de anotación antes de que lleguen a su modelo.

Exportaciones

Cree exportaciones versionadas de sus datos anotados con metadatos de linaje completos.

SLAs de calidad

Comprenda las garantías de calidad, objetivos de precisión y tiempos de entrega de Avala.

Python SDK

Instale el SDK y comience a consultar sus datos de forma programática.