조금 과감하게 말해보자면, LAPA는 ‘로봇 학습의 출발선’을 다시 그려버린 접근이다. 실제 로봇에서 수집한 action label 없이도, 인터넷에 널린 방대한 비디오 데이터만으로 로봇 foundation model을 Pretraining할 수 있다는 점에서다. 그 결과는 꽤 인상적이다. 기존 VLA 계열 모델 대비 평균 6.2% 높은 성능, 그리고 Pretraining 효율은 무려 30배 이상.핵심은 단순하다. LAPA는 Ground Truth action에 기대지 않는다. 그래서 특정 로봇, 특정 데이터셋에 과도하게 맞춰지는(overfitting) 문제를 피하고, Cross-embodiment 환경에서도 surprisingly 안정적인 성능을 보여준다.무엇보다 흥미로운 대목은, 사람이 물건을 다루는..