Replies: 4 comments
-
3/27목 1시간 1~29쪽
3/31월 2시간 30~119쪽
|
Beta Was this translation helpful? Give feedback.
-
|
Beta Was this translation helpful? Give feedback.
-
일단 지난 주 강의에서 계속해서 궁금했던 점은 두 가지였습니다. :
두 번째 질문 대답은 개인적으로 논문 (DepGraph) 리뷰하면서 얻을 수 있습니다. 전체 schema를 고려해 의존성을 설계해 uniformed protocool을 설계할 수 있다는 점이 핵심입니다. 그런데 DepGraph를 리뷰한 뒤에 강의를 들으니, 전체 schema를 고려하는 연구는 전혀 소개되지 않고, model-specific theory들만 소개하는 느낌이여서 개인적으로 아쉬웠습니다. 다만 첫 번째 질문 대답은 많은 iteration이 요구되는 분야들이 그렇듯이, 강화학습 기반의 pruning (training/fine-tuning)을 통해서 얻을 수 있었습니다. 다만 AMC는 전체 schema를 고려하지 않는데, 후속 연구가 분명 있겠지..? 하는 의문이 들었습니다.
그 다음으로 넘어가면, 신경망 아니랄까봐 Sparsity가 나옵니다. 2강에서 Activation이 bottleneck 주요 원인이라고 언급했듯이 자주 등장하며, fine-grained matrix로 변환하는 연구를 위주로 강의가 진행됩니다. 특히 교수님의 자부심이 담긴 EIE가 나오는데, (v, z, p) query를 만드는 과정을 손으로 쓰면서 해보니까 Attention value가 생각나고, 신선해서 꽤 재밌었습니다. (쿼리 최고...) (See also : Slide 7~18) 3D-segmentation 덕분에 반가웠던 TorchSparse도 꽤 흥미로웠습니다. Real-world (3D point cloud)가 Bird view (2D)보다 Sparse ConV에 의존한다는 점을 지적하는 논문인데요, PointNet이 생각나서 재밌었던 것 같습니다. TorchSparse, EIE의 내부 로직에 대한 이해가 아직 부족한 것 같아서, 과제를 해봐야할 것 같습니다. |
Beta Was this translation helpful? Give feedback.
-
Section 1: Pruning Ratio
Section 2: Fine-tuning / training
System Support for Sparsity
|
Beta Was this translation helpful? Give feedback.
-
Beta Was this translation helpful? Give feedback.
All reactions