[Paper Review] Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need

Paper Review
작성자
Kyoungchan Park
작성일
2023-12-19 23:28
조회
1743

Topic


  • Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need

Overview


  • MIM pre-trained 모델을 활용하여 OOD detection 성능을 향상시킴
  • 소규모 데이터셋에 대해 outlier exposure를 사용하지 않고도 SOTA의 성능을 달성함

발표자료 및 발표영상


  • 발표자료: 첨부 파일 참조
  • 발표영상:

참고문헌


  1. “Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need”, CVPR2023
전체 21

  • 2024-01-10 16:35

    이번 세미나에서는 Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need 에 대해서 진행되었습니다. 개인적으로 MIM 은 최근 발전 흐름처럼 다양한 분야에 적응 될 수 있을 것으로 생각했는데 OOD 분야에서도 적용되는 것을 볼 수 있었고, MIM 이 Pretrain 을 통한 방법론이기 때문에 OOD 에서도 유용할 것으로 판단 할 수 있습니다. 다만, MIM 이 비슷한 규모의 데이터셋이 ID 인 경우에는 큰 효과가 없고, Large Dataset 대상으로 활용할 수 있는 방법론에도 연구가 되어야 함을 보였습니다.


  • 2023-12-29 17:30

    해당 세미나 시간에는 지속적으로 OOD detection 연구를 수행중인 박경찬 박사과정이 “Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is All You Need” 다소 친숙한 제목의 논문을 주제로 세미나를 진행해주었습니다. 해당 논문에서는 단순히 재구성 기반 방법을 사용하는 것이 OOD detection 성능을 향상시킬 수 있다는 입증하고 있고, reconstruction 기반 전제 작업이 일반적으로 적용 가능하고 효과적인 선험지식을 제공할 수 있는 잠재력이 있다는 것을 확인했습니다. 해당논문에서 제안하는 프레임워크인 MOOD(Masked Image Modeling for Out-of-Distribution Detection)에서는 reconstruction-based pretext tasks를 통해서 In Distribution 데이터 세트의 실제 데이터 분포를 학습하기 위한 OOD 탐지에 효과적인 사전학습을 제공할 수 있다는 것을 실험적으로 잘 보여주었다고 생각합니다. 또한, 발표자가 단순히 논문의 실험결과를 맹신하지 않고, 기존의 선행연구들의 실험결과와 대조하여, 성능에 대한 의구심과 재현성을 짚고 넘어갔던 점도 해당 도메인을 연구주제로 하는 연구자로부터 배울 좋은 자세라고 생각하였습니다. 의미있는 세미나 시간을 이끌어준 발표자에게 감사합니다.


  • 2023-12-30 22:15

    - 이번 세미나에서는 시기 별로 SOTA 모델들을 기준으로 OOD가 어떻게 발전되었는지 정리 함과 동시에 최근 Masked Image Modeling을 OOD detection에 적용한 논문인 Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need에 대해 다뤄주셨습니다. 본 논문에서는 MIM 기법을 통해 사전학습된 모델을 사용하면 OOD detection 성능이 크게 향상됨을 보여주고 있습니다.
    - 다만 결론에서 언급해주셨듯이 소규모 dataset에 대해서는 이러한 방법이 유효하게 먹혔지만 pre-training dataset과 비슷한 크기의 dataset에 대해 OOD detection을 적용하는 경우 그 효과가 미비했다는 것이 일종의 치팅은 아닌가 하는 생각이 들었습니다. 근본적인 OODness를 scoring 하는 방법론을 제안하는 것이 아닌 큰 데이터셋에 의존하는 것이 과연 좋은 방법인가 라는 생각이 들었습니다. 좋은 발표 감사합니다!


  • 2024-01-01 14:59

    금일 세미나는 Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need 논문을 바탕으로 진행되었습니다. OOD Detection을 위한 방법론들은 크게 OODness를 잘 반영할 수 있도록 하는 Score 자체를 계산하는 Score Design, OODness를 잘 반영하도록 모델의 Representation vectors를 학습하는 Representation learning, 모델의 Head에 존재하는 Classifier 외에 독립적인 OOD Detection을 위한 Head를 추가하는 Auxiliary Model이 존재합니다. 해당 방법들은 결국 가는 길은 다르지만, In distribution에 대한 Supervised learning만으로는 학습할 수 없는 정보를 추가로 학습함으로써 OOD Detection을 수행하고 있다고 말할 수 있습니다. 이어서 이전 연구를 통하여 class dependent information 뿐만 아니라, class agnostic information을 같이 이용해야 OOD Detection에서 더 좋은 성능을 보일 수 있다고 말하고 있습니다. 해당 논문에서는 Masked Image Modeling (MIM)를 통해서 Pre-trained된 모델을 활용함으로써 OOD Detection 성능을 높이고자 하는데, 이때 MIM Pre-trained 모델을 활용하여 In distribution dataset에 대하여 Fine-tuning을 함으로써 Indistribution 정보를 충분하게 내포함을 확인하고 있습니다. 결론적으로 소규모 Dataset 등이 Indistribution인 경우, MIM Pre-training을 수행하는 것만으로 OOD Detection 성능이 크게 향상됨을 확인하였으나, Pre-training dataset과 맞먹는 규모의 Dataset이 Indistribution인 경우에는 큰 효과가 없음을 확인하였습니다. 다양한 이전 연구를 모두 소개해 주셨으며, 중요한 부분을 자세히 짚어 주셨기에 이해가 수월했습니다. 좋은 발표 정말 감사드립니다.


  • 2024-01-01 15:37

    본 세미나는 Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need 라는 주제에 대한 논문을 리뷰하였습니다. 기존에 다뤄주셨던 내용과 비슷한 결의 OOD detection에 대한 내용을 담은 논문이었습니다. 기존의 방법론은 크게 Score Design, Representation Learning, Auxilary Model로 분류할 수 있습니다. 이러한 방법론들은 직간접적으로 데이터의 내재적 분포를 모델링한다는 특징이 있습니다. 본 세미나에서 다룬 Masked Image Modeling (MIM) 역시 데이터의 내재적 분포를 충분히 내포할 수 있는 방법론 이었습니다. 구체적으로 MIM pre-training, ImageNet Intermediate fine-tuning, In Distribution fine-tuning의 3단계 과정을 통해 MOOD를 구현하였습니다. 결론적으로 소규모 dataset이 ID 인 경우 MIM pre-training이 큰 효과를 보인다는 것을 입증하였습니다. 하지만 대규모 데이터셋이 ID인 경우에는 큰 효과가 없는 것으로 나타나서 이에 대한 연구가 앞으로 지속될 것이라고 판단됩니다. OOD detection이라는 생소한 주제에 대해 항상 꼼꼼하게 설명해주셔서 잘 듣고 있습니다. 좋은 발표 감사합니다!


  • 2024-01-01 16:06

    이번 세미나는 Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need 논문을 주제로 진행되었습니다. 논문 소개에 앞서 발표자분께서 OOD detection 분야에서의 최신 연구 경향과 함께 MIM 기술의 적용에 대해 설명해주셨습니다 . 소개해주신 논문에서 제시된 방법론이 다양한 OOD 시나리오에서 어떻게 효과적으로 작동하는지에 대한 체계적인 분석이 인상적이었습니다. 특히, Masked Image Modeling 기술을 통한 Pre-training과 Fine-tuning이 소규모 데이터셋 뿐만 아니라 대규모 데이터셋에서도 어떤 영향을 미치는지에 대해 설명하며, 연구의 깊이를 더했습니다. 또한, 발표자는 단순히 이 논문의 결과를 소개하는 데 그치지 않고, 기존 연구들과의 비교를 통해 MOOD 프레임워크의 강점과 한계를 논리적으로 분석했습니다. 이러한 분석을 통해 OOD detection 분야에서의 이해도를 높이는 데 크게 기여했습니다. 단순히 해당 논문의 소개를 넘어, 기존 연구들의 실험 결과와의 비교를 통해 리포팅 된 성능에 대한 의문 제기 등 좋은 발표를 넘어 좋은 연구자의 태도를 배울 수 있었던 시간이었습니다. 좋은 세미나 감사합니다


  • 2024-01-01 16:26

    이번 세미나에서는 "Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need"에 대한 논문 리뷰를 진행해주셨습니다. 본 발표에 앞서 OOD Detection와 관련하여 더나은 representation learning을 할 수 있는 방법론들을 다루어 주셔서 이해에 많은 도움이 되었습니다. 본 논문에서는 Masked Image Modeling(MIM) 기법을 통해 pre-train된 모델을 이용하여 OOD Detection에서 성능을 향상시키고 있습니다. MOOD는 3단계로 구성되며, 마할라노비스 거리를 기반으로 OOD score를 산출하고 있습니다. 결론적으로 소규모 데이터셋에서 MIM pre-training을 수행하는 것이 OOD detection 성능을 크게 향상시키는 것을 알 수 있었습니다. 실험적인 파트에서 이상점을 짚어내신 부분을 통해 노련함을 엿볼 수 있었습니다. 좋은 발표 감사합니다!


  • 2024-01-01 23:08

    금일 세미나는 Image Out-of-Distribution Detection 분야에서 Masked Image Modeling을 통한 Pretrain이 성능을 비약적으로 향상시킬 수 있다는 내용을 담은 "Rethinking Out of distribution Detection: Masked Image Modeling is All You Need, CVPR 2023"을 중심으로 진행되었습니다. Masked Image Modeling은 BERT의 영향을 받아 Image 내 임의의 패치를 Masking하고 해당 이미지의 토큰을 복원하는 BEIT 모델 학습 방법론을 의미합니다. 실제로는 OOD Detection을 위해 MIM을 통한 Pretraining, ImageNet을 통한 Fine tuning, In-Domain 데이터를 통한 Fine tuning의 3단계로 학습이 수행됩니다. 이와 같은 단순한 모델 학습 방법론이 OOD Detection의 성능을 개선시키는 여러가지 실험을 보이고 있습니다. 다만, 실험 장표 내 타 모델과 다른 모델 구조 및 크기를 가지고 있다는 점에서 엄밀한 비교인지 의구심을 가지게 될 수 있을 것 같습니다. 그럼에도 불구하고, MiM을 통해 대량의 Corpus를 통한 Pretrain은 매우 범용적으로 사용될 수 있는 학습 방법론이고, 해당 방법론이 가지는 효과는 Ablation Study를 통해 충분히 보여주고 있어, 향후 연구로 확장될 수 있을 것으로 보입니다. 좋은 발표 감사합니다.


  • 2024-01-02 11:42

    이번 세미나는 "Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need" 논문을 중심으로 진행되었습니다. 해당 논문은 OOD(Out-of-Distribution) 탐지를 위한 재구성 기반 방법의 효과를 강조합니다. MOOD(Masked Image Modeling for Out-of-Distribution Detection) 프레임워크는 재구성 기반 사전작업(MIM), Imagenet 데이터 셋을 활용한 Fine-tuning, In-domain 데이터에 대한 fine-tuning으로 구성됩니다. 실험의 결과를 통해 MIM 사전 학습의 유효성을 강조한 점이 본 논문의 주요 contribution으로 꼽을 수 있겠습니다. 발표자께서더불어 실제 실험 결과 지표의 신빙성에 대한 의문을 제기해주셨는데 항상 연구자로서 비판적인 자세로 논문을 분석해야함을 배울 수 있었습니다. 좋은 발표 감사합니다.


  • 2024-01-02 12:59

    금일 세미나는 Masked Image Modeling (MIM)와 Fine-tuning을 기반으로 OOD Detection을 진행한 "Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need"라는 논문을 중심으로 설명을 진행해주셨습니다. MOOD에서 제안하는 MIM 방식은 Patch Masking 전략을 제시하였던 BeiT 모델에서 제시하였던 방식과 동일하게 임의의 patch를 masking하여 reconstruction하는 방식으로 pre-training을 진행하고 이후 ImageNet Dataset으로 Intermediate fine-tuning과 In-Domain Dataset으로 fine-tuning하는 과정으로 마무리가 되어집니다. 발표를 끝까지 듣지 않았을 때는 비교적 단순한 방법으로 구성되어 있다고 생각하였지만, 오히려 단순하게 대규모의 Dataset으로 Pre-training하는 것이 powerful한 성능을 기록할 수 있고 이러한 pre-training 전략이 OOD 분야에서 주목하고 있는 흐름임을 알 수 있었습니다. 다만, 제안되는 방법론의 한계점으로 소규모의 In-Domain Dataset으로는 성능 향상을 확인할 수 있었지만, 대규모의 In-Domain Dataset으로는 성능 향상을 확인하지 못한 것으로 보아 아직까지 한계점이 존재하는 것을 알 수 있었으며, 발표자의 의견으로 나왔었던 다른 모델들과의 비교 부분에서 pair한 비교인지, 성능 reporting에 대한 의문점을 짚어주신 부분을 보면서 앞으로 연구를 해석하는데 있어 제안되는 방법과 그에 따른 성능에 대한 의문점과 비판적인 시각을 동시에 갖춰야한다는 소중한 깨우침을 주셨던 것 같습니다. 좋은 발표, 그리고 좋은 연구자의 태도를 알려주신 발표자분께 감사의 인사를 드립니다. 감사합니다!


  • 2024-01-02 14:42

    이번 세미나에서는 Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need 라는 논문을 다루었습니다. 이번 세미나에서는 논문을 다루기에 앞서 OOD detection을 접근 방식에 따라 Score Design, Representation Learning, Auxiliary Model로 크게 구분한 후 각 접근 방식에 해당하는 대표 논문들과 특징들을 간단하게 다루었습니다. 해당 논문은 여러 분야에 걸쳐 널리 사용되는 Masked Image Modeling 기법으로 pre-trained된 모델을 OOD detection에 활용한 방법론을 제안하였습니다. MIM pre-trained 모델을 통해 in distribution dataset에 대해 fine-tuning을 함으로써 학습되는 정보를 통해 OOD detection을 효과적으로 수행할 수 있다는 점입니다. 실험에서도 이러한 방식의 효과성을 높은 성능을 통해 확인할 수 있었습니다. 하지만 발표자분께서도 언급하셨다시피 비교 방법론이 비교적 오래되고 기본 성능이 떨어진다는 점과 실험 비교 방법론들과의 실험 세팅 차이를 상세하게 밝히지 않아 실험 환경을 정확하게 파악하기 어렵다는 점이 아쉬웠습니다. OOD detection의 전반적인 흐름을 살펴볼 수 있는 좋은 시간이었습니다. 좋은 발표 감사합니다.


  • 2024-01-02 14:59

    이번 세미나에서는 “Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need”라는 연구에 대해서 소개해 주셨습니다. 해당 논문에서는 Masked Image Modeling(MIM)으로 사전학습된 모델을 OOD Detection에 활용시 Detection 성능이 향상됨을 발견했습니다. Contrastive Learning에 비해 MIM을 이용한 Representation 학습이 In-Distribution 데이터의 내재적 분포를 더 잘 모델링한다는 것을 보였습니다. 다만, CIFAR-10/-100 등과 같이 소규모 데이터셋이 In-Domain인 경우에만 MIM 사전 학습이 OOD Detection 성능 향상에 도움이 되고, Downstream Task 데이터의 규모가 사전학습에 사용되는 데이터의 규모와 유사한 경우에는 MIM이 큰 효과가 없다는 한계가 존재했습니다. OOD Detection을 위해 Contrastive Learning을 활용한 연구들을 비롯해 메인이 되는 논문을 이해하기 위해 필요한 배경 지식들을 중점적으로 설명해주셔서 이해에 많은 도움이 되었습니다. 좋은 발표 감사합니다.


  • 2024-01-02 16:30

    본 세미나에서는 2023년 CVPR에서 발표된 "Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need"라는 Out-of-Distribution (OOD) 탐지 분야 논문을 발표해 주셨습니다. 이 연구의 핵심은 Masked Image Modeling (MIM)에 기반한 새로운 모델 개발로, 이미지 내 임의의 패치를 마스킹하고 이를 복원하는 과정을 중심으로 합니다. MIM은 본질적으로 BERT와 같은 자연어 처리 기법에서 영감을 받아, 이미지 데이터에 적용된다는 점이 특징입니다. 이 방식을 통해 모델은 이미지 내 숨겨진 정보를 더 효과적으로 추출하고 이해할 수 있게 되며, 이는 OOD 탐지의 정확도를 향상시키는 핵심 요소가 되는 것을 알게 되었습니다. 해당 논문은 특히 MIM을 통한 사전 학습(Pre-training)이 OOD 탐지에 어떻게 기여하는지에 초점을 맞춰 소개합니다. 사전 학습된 모델은 ImageNet과 같은 대규모 데이터셋을 통해 미세 조정(Fine-tuning)을 거치며, 이 과정에서 모델은 In-distribution 데이터에 대한 깊은 이해를 할 수 있었습니다. 기존 방법들이 주로 분류기나 보조 모델에 초점을 맞춘 반면, 이 논문은 사전 학습과 미세 조정이라는 두 단계를 통해 모델의 성능을 극대화하는 점도 매우 인상깊었습니다. 비록 논문에 제시된 방법이 몇몇 한계점을 가지고 있으며, 특히 대규모 데이터셋에 대한 성능 향상에는 제한적일 수 있지만, 해당 발표를 통해 OOD 탐지 분야에 대해 많은 것을 알게 되었습니다. 좋은 발표 감사드립니다.


  • 2024-01-02 19:29

    이번 세미나는 out-of-distribution(ood) detection 을 주제로 진행되었습니다. 근본적으로 ood detection을 진행해야하는 필요성에 대해서 생각해보면, 가령 분류 예측(classification) 수행에 있어 모델은 각 class 별 고유 특징만을 학습하게 됩니다. 이에 OOD data가 명확히 솎아내지 않게되면 오히려 성능 저하를 유발하게 됩니다. ood detection의 연구 중에는 대표적으로 representation learning과 self-supervised learning 의 측면에서 발전되어 왔습니다. 이번에 소개해주신 논문 또한 Masked Image Modeling 을 활용하는 self-supervised learning 계열입니다. 정확히는 DALL-E의 tokenizer와 discrete VAE를 활용해 reconstruction을 진행함으로써 intrinsic 분포를 모델링하는데 더 효과적임을 실험을 통해 보이고 있습니다. 전달하신 내용 중, 단순히 p(x|D) 분포만 찾아내는 것이 아닌 적은 수의 label이 존재하더라도 p(x,y|D)의 분포를 확실히 찾아내는 것이 더 좋은 성능을 나타낼 것이라는 의견에 동의하는 바입니다. 한편, ood detection 관련 연구에서 데이터셋의 선택, 정확히는 조금 더 현실적인 데이터셋을 활용하는 것의 필요성이 보입니다. 단순히 벤치마크 데이터셋끼리 뒤섞는 것으로 ood라고 판별할 수 있는지에대한 근거가 조금 더 보완된다면 좀 더 의미있는 연구 결과가 될 것 같습니다. 흥미로운 발표 감사합니다.


  • 2024-01-02 20:25

    이번 세미나는 CVPR 2023에 게재된 OOD Detection 관련 논문은 Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need에 대한 발표였습니다. 발표자분께서는 최신 OOD Detection 방법론을 훑으시면서 그들이 좋은 성능을 갖고 있지만, 데이터의 내재적 분포를 직간접적으로 모델링하는 방법을 가지고 있습니다. 이러한 방법은 각 class를 구분하기 위해 필요한 특정한 pattern만을 학습하게 되는데 이렇게 학습된 모델은 near distribution에 속한 OOD data를 잘 구분할 수 없다는 점을 꼬집었습니다. 즉, class dependent information만이 아닌 class agnostic information 모두를 활용해야 한다는 것입니다. 본 논문에서는 두 정보를 잘 활용할 수 있는 해결방법으로 Masked Image Modeling을 제시합니다. MIM은 reconstruction 기반 모델이기 때문에 데이터의 내재적인 분포(기존에 무시되었던) 분포를 모델링하는데 더욱 유리하기 때문에 contrastive learning기반의 방법보다 OOD Detection 성능이 좋다는 점을 다양한 실험을 통해 증명했습니다. 기존에 당연하다시피 사용되는 학습 방법의 문제점을 논리와 증거를 가지고 지적하는 본 논문 및 세미나는 cv관련 연구를 하는 저에게 특히 흥미롭게 들렸습니다. 좋은 발표 감사드립니다!


  • 2024-01-02 22:10

    금일 세미나는 CVPR 2023에 게재된 Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need 논문으로 진행되었습니다. 해당 논문에서는 Masked Image Modeling을 통해 사전 학습된 모델을 활용하여 in distribution dataset에 대해 미세조정을 진행하는 것만으로도 모델이 데이터의 내재적인 분포를 충분히 내포할 수 있으며, 따라서 OOD Detection에서 성능이 크게 향상될 수 있음을 확인하였습니다. 논문이 나오게 된 Introduction을 굉장히 자세하게 설명해주셔서 전반적인 이해에 큰 도움이 됐던 것 같습니다. 좋은 발표 감사합니다.


  • 2024-01-02 23:49

    본 세미나는 박경찬 발표자님께서 Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need 라는 논문을 바탕으로 진행해주셨습니다. 먼저 task는 out of distribution detection으로 MIM pre-trained 모델을 활용하여 OOD detection 성능을 향상시킨 것이 주 기여점입니다. Nlp에서 많이 쓰이는 MLM 기법을 vision 분야에 맞게 MIM으로 변환시킨 것이 주요한 포인트라고 생각했습니다. 뿐만 아니라 작은 데이터셋에 대해 outlier exposure를 사용하지 않고도 기존 모델의 성능을 개선시킨것이 두 번째 키포인트라고 생각합니다. 마지막으로 발표자님께서 말씀해주신 것처럼 성능적으로 문제가 되는 점이 있지만, 기존 연구들에서 차별화된 방향대로 했다는 점 자체가 해당 논문이 어셉된 이유라고 생각했습니다. OOD에 대해 잘 알지 못했지만 자세히 설명해주셔서 이해하기 쉬웠습니다. 좋은 발표 준비해주셔서 감사합니다.


  • 2024-01-03 00:54

    이번 세미나는 CVPR 2023에 게재된 OOD Detection 관련 논문은 Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need에 대한 발표였습니다. 발표자분께서는 최신 OOD Detection 방법론을 훑으시면서 그들이 좋은 성능을 갖고 있지만, 데이터의 내재적 분포를 직간접적으로 모델링하는 방법을 가지고 있습니다. 이러한 방법은 각 class를 구분하기 위해 필요한 특정한 pattern만을 학습하게 되는데 이렇게 학습된 모델은 near distribution에 속한 OOD data를 잘 구분할 수 없다는 점을 꼬집었습니다. 즉, class dependent information만이 아닌 class agnostic information 모두를 활용해야 한다는 것입니다. 본 논문에서는 두 정보를 잘 활용할 수 있는 해결방법으로 Masked Image Modeling을 제시합니다. 좋은 발표 감사드립니다!


  • 2024-01-03 01:22

    이번 세미나는 "Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need"로 진행되었으며, 이는 OOD Detection 분야에서 Masked Image Modeling (MIM)을 활용한 Pretraining이 어떻게 성능을 향상시킬 수 있는지에 대한 심층적인 분석을 제공했습니다. MIM은 Image 내 일부 패치를 가리고, 해당 토큰을 복원하는 방식으로 작동하여 BERT 모델에서 영감을 받았습니다. 이번 연구는 특히 OOD Detection을 위해 MIM을 통한 Pretraining, ImageNet을 통한 Fine-tuning, 그리고 In-Domain 데이터를 사용한 추가적인 Fine-tuning의 세 단계를 통해 학습을 진행했습니다. 해당 세미나는 MIM을 활용한 Pretraining의 중요성을 강조하였고, 사전학습 데이터셋과 비슷한 크기의 데이터셋이 in-domain인 경우 큰 효과가 없었기에 이 부분에서 연구와 개발의 필요성을 강조하였습니다. 좋은 발표 감사합니다.


  • 2024-01-03 21:23

    이번 세미나는 Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need를 주제로 진행되었습니다. 본 논문에서는 Masked Image Modeling(MIM)을 제안합니다. MIM은 pre-trained된 모델을 통해 in distribution dataset에 대한 확률 분포 정보를 내포하고자 하였습니다. MIM은 ViT encoder, DALL-E의 tokenizer를 활용하였고 discrete VAE를 활용하여 tokenizer를 학습하는 방법을 사용하였습니다. 지금까지 OOD detection 관련 연구를 많이 소개해주셨었는데 생각해보니 pre-trained 모델은 없었던 것 같은데 pre-trained 모델을 통해 내재적 분포를 충분히 반영하고자 한 점이 인상 깊었습니다. 좋은 발표 감사합니다.


  • 2024-01-04 23:31

    이번 세미나에서는 Rethinking Out-of-distribution Detection: Masked Image Modeling is All You Need 논문을 소개해주셨습니다. 이는 발표자께서 지속적으로 소개해주셔온 OOD detection에 대한 것으로 기존의 방법론 부터 이번 주제논문의 방법론 까지의 연구의 흐름을 이해할 수 있었습니다. 여기서 Masked Image Modeling (MIM)에 대한 세부 설명과 함께, 발표에서 강조한 3단계 과정(MIM pre-training, ImageNet Intermediate fine-tuning, In Distribution fine-tuning)이 MOOD를 어떻게 구현하는지에 대한 내용이 인상적이었습니다. 특히, 발표자께 견해로 소새해주신 소규모 데이터셋에서의 MIM pre-training의 효과에 대한 입증과 대규모 데이터셋에서의 한계에 대한 분석은 매우 명확하게 전달되었습니다. 좋은 발표 감사드립니다!


전체 518
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 11521
관리자 2020.03.12 0 11521
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 10164
관리자 2020.03.12 0 10164
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 11247
관리자 2020.03.12 0 11247
515
[Paper Review] Multi-Scale Finetuning for Encoder-based Time Series Foundation Models (1)
Hyeongwon Kang | 2025.07.29 | 추천 0 | 조회 91
Hyeongwon Kang 2025.07.29 0 91
514
[Paper Review] Recent Research Trends in Video Anomaly Detection (2)
Jaehyuk Heo | 2025.07.27 | 추천 0 | 조회 96
Jaehyuk Heo 2025.07.27 0 96
513
[Paper Review] Introduction to PINN (Some basic concepts and research directions) (9)
Hankyeol Kim | 2025.07.18 | 추천 0 | 조회 171
Hankyeol Kim 2025.07.18 0 171
512
[Paper Review] TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment (10)
Sieon Park | 2025.07.14 | 추천 0 | 조회 205
Sieon Park 2025.07.14 0 205
511
[Paper Review] Exploring Intrinsic Normal Prototypes within a Single Image for Universal Anomaly Detection (9)
Subeen Cha | 2025.07.10 | 추천 0 | 조회 180
Subeen Cha 2025.07.10 0 180
510
[Paper Review] Theory of Everything (About Sequence Modeling with DL Models…) (14)
Jaewon Cheon | 2025.06.27 | 추천 0 | 조회 363
Jaewon Cheon 2025.06.27 0 363
509
[Paper Review] Evaluation of Multilingual Image Captioning: How far can we get with CLIP models? (16)
Minjeong Ma | 2025.06.07 | 추천 0 | 조회 414
Minjeong Ma 2025.06.07 0 414
508
비밀글 [Rehearsal] 석사학위 논문심사 - 마민정 (19)
Minjeong Ma | 2025.06.02 | 추천 0 | 조회 38
Minjeong Ma 2025.06.02 0 38
507
비밀글 [Rehearsal] 석사학위 논문심사 - 정기윤 (20)
Kiyoon Jeong | 2025.06.02 | 추천 0 | 조회 38
Kiyoon Jeong 2025.06.02 0 38
506
비밀글 [Rehearsal] 석사학위 논문심사 - 남웅찬 (19)
Woongchan Nam | 2025.06.02 | 추천 0 | 조회 33
Woongchan Nam 2025.06.02 0 33

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 허재혁 : jaehyuk.heo@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호