메인 콘텐츠로 건너뛰기
로보틱스 팀은 다양한 센서 구성으로 작업합니다 — 뎁스 카메라, 스테레오 리그, LiDAR, 로봇 플랫폼마다 달라지는 멀티카메라 설정. Avala는 기록된 센서 데이터를 재생하기 위한 네이티브 MCAP 지원과 매니퓰레이션, 내비게이션, 장면 이해 모델이 요구하는 인지 학습 데이터를 라벨링하기 위한 완전한 어노테이션 툴킷으로 이러한 다양성을 처리합니다.

로보틱스 데이터 시각화

MCAP 재생

로봇의 MCAP 녹화를 업로드하고 동기화된 뷰어에서 카메라, 뎁스, LiDAR, IMU 스트림을 재생하세요.

포인트 클라우드 시각화

GPU 가속으로 뎁스 카메라와 LiDAR의 포인트 클라우드를 렌더링합니다. 6가지 시각화 모드로 밀도, 강도, 공간 구조를 검사하세요.

멀티카메라 뷰

여러 카메라 스트림(RGB, 뎁스, 스테레오)을 녹화의 동일한 타임스탬프에 동기화하여 나란히 봅니다.

타임라인 네비게이션

로봇 작업을 프레임별로 이동하여 핵심 순간을 찾습니다 — 그립 시도, 내비게이션 결정, 충돌 이벤트.

일반적인 작업

객체 탐지 및 그립핑

선반, 테이블, 컨베이어 벨트의 객체를 그립 계획 모델을 위한 바운딩 박스와 인스턴스 세그멘테이션 마스크로 라벨링합니다.

장면 세그멘테이션

바닥, 벽, 장애물, 자유 공간 등의 표면 유형에 대한 픽셀 수준 세그멘테이션 마스크를 생성합니다.

키포인트 어노테이션

관절 위치, 도구 팁, 그립 포인트, 포즈 랜드마크를 표시합니다.

지형 분류

야외 모바일 로봇의 경우, 주행 가능 vs. 주행 불가능한 표면을 분류합니다.

시작하기

1

로봇 녹화 업로드

데이터셋을 생성하고 MCAP 파일을 업로드합니다. 뷰어가 카메라, 뎁스, LiDAR, IMU 토픽을 자동 감지합니다.
2

데이터 탐색

녹화를 재생하여 센서 커버리지와 데이터 품질을 이해합니다.
3

어노테이션 작업 정의

모델 입력에 맞는 어노테이션 유형을 선택합니다: 탐지용 바운딩 박스, 포즈 추정용 키포인트, 장면 이해용 세그멘테이션.
4

라벨 분류 체계 설정

로봇 작업 환경에 관련된 객체 클래스와 속성을 정의합니다.
5

어노테이션, 리뷰, 내보내기

팀이 데이터를 라벨링하고, 리뷰어가 품질을 확인하고, 학습 파이프라인에서 기대하는 형식으로 내보냅니다.

다음 단계

MCAP & ROS

지원 형식과 로봇 녹화 준비 방법.

어노테이션 도구

로보틱스 데이터에 사용 가능한 모든 어노테이션 도구 개요.