분류 전체보기
-
[논문 리뷰] Flatformer논문 스터디 2023. 7. 5. 18:10
어디까지나 뇌피셜인 블로그 논문 링크 : Flatformer : Flattened window attention for efficient point cloud transformer Motivation pointcloud transformer의 efficient한 버전이다. 기존 pointcloud transoformer인 SST와 sparse convolution을 사용한 Centerpoint 보다도 빠른 pointcloud transformer로, nvidia jetson agx orin에서도 16 fps로 inference 할 수 있다. 자세한 내용을 보자. 먼저 선행되어야 하는 3D dense prediction method의 특징에 대해서 살펴보자. 보통 nuScenes, Waymo dataset..
-
vscode에서 commandline으로 run 할때 DEBUG 하기에러 관리 2023. 6. 22. 17:28
1. commandline으로 run할때 launch.json에 아래와 같이 써준다. { // Use IntelliSense to learn about possible attributes. // Hover to view descriptions of existing attributes. // For more information, visit: https://go.microsoft.com/fwlink/?linkid=830387 "version": "0.2.0", "configurations": [ { "name": "Attach", "type": "python", "request": "attach", "connect" :{ "host" : "localhost", "port": 7000 } } ] } 2. t..
-
[논문 리뷰] source free domain adaptation via distribution estimation논문 스터디 2023. 6. 22. 17:21
어디까지나 뇌피셜인 블로그 논문 링크 : https://arxiv.org/pdf/2204.11257.pdf Motivation domain adaptation 은 source dataset으로 train된 model을 unlabeled target dataset에 사용하려는 task이다. source dataset과 real-world는 다르므로 source dataset으로 train된 모델을 general하게 사용하기는 어렵기 때문에 관심을 얻고 있다. domain adaptation은 곧 source dataset의 distribution과 target dataset의 distribution이 다른 문제를 말하는 domain shift problem을 푸는 것과 같다. 그 중에서도 source da..