[Paper Review] Exploring the Limits of the Out-of-Distribution Detection

Paper Review
작성자
Kyoungchan Park
작성일
2022-02-07 22:53
조회
2454
1. Topic
  • Out-of-Distribution Detection
2. Overview
  • Pre-trained Transformer 모델을 활용하여 near OOD detection에서 SOTA의 성능을 기록함
  • Few-Shot Outlier Exposure 방법론을 제안하여 추가적으로 성능을 향상시킴
  • CLIP 구조를 응용하여 zero-shot OOD detection 방법론을 제안함
 

3. 발표자료
  • 발표자료: 첨부파일 참조
  • 발표영상 [TBD]
전체 16

  • 2022-02-11 20:26

    본 세미나에서는 Closed Set에서 훈련된 딥러닝 모델이 Open Set 환경에서 사전에 훈련되지 않은 Out of Distribution 데이터 셋에 대해 탐지하여 오분류를 하지 않도록 하는 OOD Detection에 대하여 다루고 있습니다. Pretrained Transformer 이전에는 Maximal Softmax Prediction (MSP) / Mahalanobis Distance 등과 같은 기법들이 활용 되었으며 본 연구에서 사전 훈련된 Transformer를 활용해 near-OOD의 성능을 개선하였고 Few Shot Outlier Exposure를 통해 성능을 더욱 향상 시켰습니다. 데이터의 분포가 다르더라도 그 거리가 먼 OOD와 상대적으로 가까운 Near-OOD가 존재하는데 이는 CIFAR-100 / CIFAR-10와 같이 매우 유사한 데이터 셋을 말합니다. Near-OOD에 대하여 ViT를 활용하여 이전 SOTA 모델인 OpenHybrid 모델모다 더 좋은 성능을 나타내었으며, Pretraining을 진행하는 다른 모델 구조에서도 유사하게 성능이 향상되었습니다. CIFAR과 같은 단순한 이미지 대신, Genomic Sequence에 대한 OOD Detection, Multi Model Text-Image Model인 CLIP으로도 평가를 해본 결과, 최종적으로 Pretraining의 효과가 OOD에서 크게 나타난다고 결론을 지을 수 있습니다. 새로운 정보 안내해주셔서 감사합니다.


  • 2022-02-13 13:05

    이번 세미나는 transformer를 기반으로 하는 Outlier Exposure 방법론을 주제로 진행되었습니다. Outlier Exposure는 활용 가능한 Out Of Distribution 데이터를 이용하여 OOD Detection 성능을 향상시키고자 하는 방법입니다. 이전 방법론들에서는 기본적인 MSP와 Generative에 사용이 되었으며 성능의 향상은 있었으나 어느정도 한계가 존재하였습니다. 본 논문은 pre-trained transformer를 기반으로 Outlier Exposure를 통해 OOD Detection의 성능을 향상시키고자 하였습니다. OOD와 ID가 굉장히 유사한 Near OOD Detection, 소수의 데이터만을 사용한 few-shot Outlier Exposure를 적용한 OOD Detection의 성능 향상과 multi-modal image-text transformer를 활용한 outlier exposure 방법론을 제안하였습니다. ViT에 OOD를 적용한 연구에 대해 처음 접하였는데 높은 성능 개선이 흥미로웠습니다. 좋은 발표 감사합니다.


  • 2022-02-13 15:48

    이번 세미나에서 다뤄 주신 논문은 “Exploring the Limits of the Out-of-Distribution Detection”입니다. 일반적인 딥러닝 모델은 Closed Set을 가정하며, 새로운 class에 대한 입력이 들어왔을 때, 이를 사전에 탐지하고 오분류하지 않도록 하는 것이 OOD detection의 의의입니다. OOD detection을 위해서는 ID Data와 OOD Data를 구분할 수 있는 기준 값인 Confidence Score가 필요합니다. 그렇기에 Confidence Score를 어떻게 잘 구하기 위해 다음과 같은 연구들이 진행되어 왔습니다: Maximal Softmax Prediction (MSP), Mahalanobis Distance, Outlier Exposure, Generative Model Based OOD Detection. 본 논문은 pretrained transformer 모델이 near-OOD benchmark 데이터 셋에 대해 SOTA의 성능을 달성하고, few-shot outlier exposure을 적용하여 다시 한번 성능을 향상시켰을 뿐만 아니라, Multi-modal image-text transformer를 활용한 새로운 outlier exposure 방법론을 제안하였습니다. ViT 모델이 OOD Detection 연구에도 활용되고 있는 것을 알 수 있는 흥미로운 세미나 시간이었습니다. 좋은 논문 소개 감사합니다.


  • 2022-02-13 16:16

    이번 세미나에서는 Exploring the Limits of Out-of-Distribution Detection를 주제가 다뤄졌습니다. 본 논문에서는 ViT를 활용하여 OOD detection의 성능을 높였습니다. OOD Detection은 OOD와 ID 데이터셋의 분포가 가까울수록 어려운데, 본 논문에서는 near OOD 데이터셋에 대한 성능 평가에서 ViT 모델을 사용한 경우의 성능이 가장 높음을 보여주고 있습니다. 방법론으로는 ViT 모델에 OOD 클래스도 예측 클래스로 추가하여 학습해서 Outlier Exposure를 진행하였으며, 이를 통해 few shot learning에도 효과적임을 보여주었습니다. 또한, sequence나 multimodal 데이터셋에 대해서도 좋은 성능을 보였습니다. 사용 모델과 적절한 데이터셋의 선정의 중요성에 대해 다시 한번 고민해 볼 수 있는 시간이었습니다. 감사합니다.


  • 2022-02-13 23:39

    금일 세미나에서는 "Exploring the Limits of the Out-of-Distribution Detection"에 대해 살펴보았습니다. 논문의 저자들은 near out-of-distribution (OOD)의 성능을 크게 향상시키는 방식을 제안하였습니다. 이는 단순히 pre-trained Vision Transformer 구조를 사용하여 fine-tuning을 진행하는 것으로, 기존 CNN에서 진행하던 방식과 마찬가지로 OOD class를 추가하여 학습을 진행하는 방식입니다. 이는 다양한 연구들에서 보이고 있듯이 ViT가 CNN에 비해 shape-bias가 높기 때문이 아닐까 생각됩니다. Near OOD의 경우 배경에 dominant 되는 CNN으로는 탐지가 매우 어려운 테스크 이지만, 결국 object가 다르기 때문에 shape bias가 높은 ViT에서는 그렇게까지 어려운 테스크가 아니지 않을까 라는 생각이 들었습니다. 이러한 가정이 맞다면 현재까지 비전 테스크를 해결하기 위해 ViT에 locality를 추가하는 연구들이 많았는데 OOD를 위해서는 locality를 더 제거하는 연구들을 진행하는 것도 재미있을 것 같습니다.


  • 2022-02-13 23:55

    금일 세미나는 "Exploring the Limits of the Out-of-Distribution Detection"라는 주제로 진행되었습니다. 본 발표에서는 pre-trained Transformer 모델을 기반으로 near OOD detection에서 SOTA 성능을 도출한 모델이 소개되었습니다. 먼저 그동안 OOD detection task 관련 모델들은 많이 접하였지만, 본 세미나에서 near OOD detection task는 처음 접하여 새로웠습니다. Near OOD detection은 OOD Dataset의 분포와 ID Dataset의 분포가 가까운 상황에서 OOD detection을 수행하는 task로, 기존 OOD detection보다 어렵다는 특징이 있습니다. 본 연구에서는 이와 같이 어려운 task를 수행하기 위한 모델을 제안하였고, few-Shot Outlier Exposure 방법론도 추가적으로 제안하여 모델을 향상시켰습니다. 실험에서 각 Class당 1장의 이미지만을 사용해도 near OOD detection에서 유의미한 성능 향상이 도출된 것을 보고 해당 모델이 현실에서 사용하기에 큰 장점이 있다는 생각이 들었습니다. 새로운 task와 해당 task를 해결하는 모델을 접하게 되어 좋았습니다. 좋은 발표 감사합니다.


  • 2022-02-13 23:59

    금일 세미나는 Exploring the Limits of Out-of-Distribution Detection에 대한 내용으로 진행되었습니다. 기존의 OOD detection은 사전에 가지고 있는 데이터로 학습한 모델을 통해 confidence score를 도출하여 이를 기반으로 OOD인지, ID data인지를 탐지하게 됩니다. 따라서 OOD와 ID의 분포가 가까울 수록 그 난이도가 높아지는데, 해당 논문에서는 pre-trained vision transformer를 사용하여 near OOD detection을 해결하고자 하였습니다. 사전학습된 ViT에 OOD class를 예측 class에 포함하여 fine-tuning하는 방법으로 진행되었고, 실험 결과 기존 방법론들보다 좋은 성능을 달성하였습니다. 이미지 처리에 있어 ViT가 가진 능력이 특정한 task에 국한되지 않고 다방면에서 발휘되는 것 같습니다. 좋은 발표 감사합니다.


  • 2022-02-14 11:56

    이번 세미나 주제는 Exploring the Limits of Out-of-Distribution Detection으로, 새로운 class가 입력으로 주어졌을 경우 오분류하지 않도록 하는 OOD Detection을 Transformer 기반의 방법론으로 풀어낸 연구를 소개해주셨습니다. OOD detection을 위해서는 ID와 OOD를 구분하는 confidence 값을 적절히 구해내는 것이 중요합니다. 기존에는 softmax prediction 값으로 계산되는 MSP나 임베딩 벡터를 통해 산출하는 Mahalnobis distance가 confidence score로 활용되었습니다. 본 논문에서는 OOD와 ID dataset의 분포가 가까운 Near OOD Detection task를 다루고 있고, Pre-trained Vision Transformer 모델을 활용하여 성능을 개선하였습니다. 그 외에도 Few-shot outlier exposure 방법론을 통해 성능을 추가로 향상시켰으며, 유전 데이터셋의 near OOD Detection 등의 분야에서 실험을 진행하여 괄목할만한 결과를 얻었습니다. OOD 탐지나 Outlier Exposure 등 새롭게 접한 개념들이 많았는데 발표자분께서 자세히 설명해주셔서 잘 따라갈 수 있었습니다. 강력한 ViT 모델의 영향력이 해당 연구에서도 유효하게 작용하였음을 확인할 수 있었고, 앞으로 ViT를 활용한 연구들이 어떤 흐름으로 발전할지에 대해서도 기대감을 가지게 되었습니다. 유익한 발표 진행해주셔서 감사합니다.


  • 2022-02-14 16:16

    오늘 소개된 논문은 Out-of-Distribution (OOD) Detection task에서 SOTA를 기록한 "Exploring the Limits of the Out-of-Distribution Detection" 입니다. 본 논무에서는 Vision Transformer를 통해 near OOD Detection에서 SOTA를 기록하였습니다. near OOD는 normal data와 유사한 도메인 또는 distribution을 가지는 데이터를 뜻하는데, 세미나에서 소개한 CNN과 ViT의 PCA를 통한 시각화 결과가 인상적이었습니다. CNN과 달리 ViT는 in class 간 discriminative가 눈에 띄게 좋았고 OOD data 도 마찬가지로 좋았습니다. 이러한 결과가 fine-tuning 없이 진행했을 때도 CNN과 큰차이가 있었습니다. 최근 CNN과 ViT의 차이에 대해 비교하는 논문이 많이 나오고 있는데 오늘 세미나를 통해서 또 하나의 차이점을 확인해볼 수 있어서 좋은 시간이었습니다. 오늘도 좋은 발표 해주셔서 감사합니다.


  • 2022-02-14 23:50

    이번 세미나에서는 Exploring the Limits of the Out-of-Distribution Detection 연구에 대해 소개되었습니다. 해당 연구는 Image Out of distribution detection 뿐 아니라 sequential data에 대해서도 각각 pre-trained ViT와 BERT를 사용해 detection 성능을 향상시킬 수 있음을 보여줍니다. Autoencoder 기반 ood detection 연구들 중 pre trained CNN을 활용하여 성능을 개선한 연구들을 접한적 있었는데 소개된 논문은 이러한 연구가 transformer 로 확장된 것이라 생각되어 재밌게 들을 수 있었던 것 같습니다. Pre trained ViT를 fine tuning없이 사용해도 유의미한 성능을 보여준다는 점과 일반적인 OOD Detection 보다 어려운 Near OOD에서도 잘 동작하는 방법이라는 점이 놀라운 것 같습니다. 소개된 논문처럼 기존에 다른 task에서 활용되는 방법론들을 특정 task에 적용하여 성능을 개선할 수 있음을 생각하며 개인연구 주제를 탐색해봐야 할 것 같습니다. 좋은 발표 감사합니다.


  • 2022-02-15 22:01

    이번 세미나에서는 “Exploring the Limits of the Out-of-Distribution Detection”라는 논문에 대해 소개해주셨습니다. 일반적으로 ID가 크게 다른 데이터들 간에는 OOD가 상대적으로 쉬우나, CIFAR-10과 CIFAR-100 과 같은 유사한 ID의 데이터셋의 경우 더욱 어려운 OOD task가 된다고 합니다. 이러한 것을 Near Out-of-Distribution(OOD)라고 하는데, ViT를 활용해 pre-trained 된 모델을 이용하는 경우 성능이 굉장히 좋았다고 합니다. 또한 BERT 모델을 통해 시퀀셜한 데이터에 대해 실험을 진행한 결과에서도 좋은 성능을 냈다고 합니다. ViT가 CNN 계열 모델과 갖는 차이점, 특히 pre-trained 된 경우에는 bias가 달라지는 경향성이 있기 때문에 이런 결과가 나오지 않았나 싶기도 합니다. 관련되어 항상 좋은 연구 소개해주셔서 감사합니다. 좋은 발표 잘 들었습니다.


  • 2022-02-17 21:21

    금일 세미나는 Exploring the Limits of the Out-of-Distribution Detection에 대해 진행되었습니다. 본 연구는 모든 상황들이 완벽히 통제된 상황이 아닌, open set의 실제 상황에서 모델의 사용을 고려했을 때 꼭 필요한 OOD detection과제에 대해 진행되었습니다. 특히나 In-distribution 데이터와 유사한 Out-of-distribution 데이터, 즉 Near OOD 를 detection해내는 방법론에 집중합니다. 이전 세미나에서 개인적으로 Image benchmark dataset에 대해 다른 domain을 갖는 OOD dataset에 대한 detection이 generative model을 기반으로 했을 땐 성능이 매우 저조할 수 있음을 다룬 바 있었습니다. 개인적으로 probabilistic generative model은 본래 이미지의 내재적인 핵심 정보들을 제대로 density estimation해낼 것이라 기대했지만, 그 보다는 데이터 자체의 기초 통계적 특징(분산)에 크게 영향을 받는 모습을 보임을 본 바 있습니다. 이러한 제한점을 극복하기 위해 제안된, generative model과 classifier를 결합한 모델(hybrid)이 성능을 내기도 했습니다. 본 연구는 이에서 벗어나 Transformer 기반의 pre-trained 모델을 활용합니다. 성능은 역시나 매우 높았습니다. OOD detection분야에서도 역시 pretrained transformer 기반의 모델이 강세인 것인가.. 라는 생각을 했습니다. 아무래도 대량의 데이터를 토대로 강력한 임베딩 정보를 보유할 수 있는 Attention구조의 transformer 모델이 다양한 과제에서 여전히 높은 성능을 보인다는 것을 다시 한 번 느낄 수 있었습니다. 좋은 발표 감사드립니다.


  • 2022-02-20 17:24

    금일 세미나는 exploring the limits of out-of-distribution detection을 주제로 진행되었습니다. 먼저 introduction에서는 robust한 모델을 생성하기위해 연구의 흐름을 짚어주셨는데, 기존에 연구 관점에서 성능을 향상시키기위해 closed dataset에 과도하게 집중한 연구를 하지 않았는지 되돌아보게되었습니다. SoTA를 달성하는것도 매우 중요하지만, 우리가 제안한 아키텍쳐가 현실 상황에서도 risk없이 작동할지 고민해야한다고 생각했습니다. 따라서 OOD task에 대한 연구를 꾸준히 follow up 하며 현실 상황에서도 잘 작동하는 모델을 개발해야겠다고 다짐하였습니다. 소개해주신 논문은 기존 연구들보다 성능을 향상시키기위해 pretrained transformer를 사용하며 좋은 성능을 달성했다는 것이 결론이지만 해당 task의 필요성과 앞으로 연구 방향에 대해 고민하는 좋은 시간이 되었습니다. 감사합니다


  • 2022-02-09 22:09

    오랜만에 ood detection 연구를 소개해주셨습니다. 강건함을 유지하기 위한 목적으로 outlier exposure, generative-model based approach 등의 방향으로 많이 연구가 되고 있는 것 같은데 bayesian 신경망도 함께 연구되고 있는지 궁금하였습니다. 본 논문에서는 background statistics 문제를 해결하기 위한 openhybrid 모델보다 더 개선된 ViT 기반의 모델을 제안합니다. 시각화 결과를 전부 믿을 수는 없지만 이미지 패치 기반의 모델이 ood class를 잘 분리하는 것 같습니다. 그러나 성능이 많이 좋아졌음에도 불구하고 학습에 사용한 ood 데이터셋이 필요하다는 점을 보았을 때 현실에서도 유용한 방법인지 생각해보았을 때는 회의감이 들었습니다. 다만 CLIP을 사용하여 web scale로 확장한 zero-shot detection은 ood에 대한 분포를 굉장히 다양하게 활용할 수 있다는 점에서 인상적이었습니다. 발표 잘 들었습니다.


  • 2022-02-10 15:25

    금일 세미나는 pretrained transformer 모델을 활용한 Near Out-Of-Distribution(OOD)에 대한 연구에 대한 소개로 진행되었습니다. Near OOD task란, OOD 데이터셋과 ID 데이터셋이 서로 비슷한 분포를 갖는 경우에서의 OOD를 수행하기 때문에, 서로 분포가 다른 데이터셋을 사용할 때 보다 task에서 좋은 성능을 얻는 것이 더 어렵습니다. 이러한 Near OOD task에서 vision transformer 계열의 모델을 적용하였을 때 성능이 개선됨을 실험적으로 증명하였으며, 특히 제안하는 few-show outlier exposure 방법론을 통해 각 클래스별 1장의 이미지를 활용했을 때에도 유의미하게 성능이 향상됨을 알 수 있었습니다. 또한, 이미지 데이터 외에도 transformer 계열 모델로 pretrained BERT로 sequence 데이터에 대해 검증한 결과 AUROC가 개선됨을 볼 수 있었습니다. 또한 multi-modal task에서도 vision transformer 기반의 CLIP 구조를 적용하여 zero-shot 성능이 향상되는 것을 통해 OOD task에서도 vision transformer 모델이 좋은 성능을 내는 것을 알 수 있었습니다. Vision transformer가 점차적으로 여러 분야에서 접목되어 우수한 성능을 보이는 것 같습니다. CIFAR10, CIFAR100, SVHN 외에도 MVTecAD처럼 특수한 데이터와 OOD 분야를 접목하는 연구는 아직 없는 것 같아 이런 부분에 대해 추가적으로 고민해보면 좋은 연구 주제가 되지 않을까 생각했습니다. 좋은 발표 감사합니다.


  • 2022-02-11 03:46

    오늘 소개된 논문은 사전 학습된 transformer 모델을 이용하여 OOD(Out-Of-Distribution) 데이터, 그 중 near-OOD 벤치마크 데이터에 적용한 방법론에 대해 다루고 있습니다. OOD의 핵심은 정상과 비정상 데이터의 경계면을 찾는 것 혹은 예측에 대한 신뢰도를 높이는 것이 핵심이 될 것입니다. 이때, Near-OOD란 outlier의 범주와 inlier의 범주가 유사한 상황에서의 OOD를 수행하는 것을 의미하는데 CIFAR-10과 CIFAR-100 데이터가 서로의 inlier, outlier의 역할 해주게 됩니다. 사전 학습된 ViT를 이용하였을 때 OpenHybrid 모델보다 성능이 좋음과 소량의 Outlier Exposure 만으로도 성능 향상이 있음을 보여주었습니다. 한편, 시계열 데이터의 일종인 유전 데이터 셋에 대해서는 사전학습된 BERT 모델을 활용하여 무작위로 masking된 염기서열을 예측하는 과제에서 높은 수치의 결과를 나타냈습니다. 본 논문의 사실상 기여점이라고 볼 수 있는 부분은 multi-modal Text-Image를 다루는 방법론을 제시한 것입니다. 이미지와 ID 및 OOD 라벨을 같은 공간으로 임베딩 하여 벡터와의 유사도를 구해 confidence score를 구하게 됩니다. 새롭게 생성한 방법론을 제시 했다기 보다는 사전의 아이디어를 담백하게 조합한 것으로 느껴집니다. 덕분에 Near-OOD, Outlier Exposure 등의 개념을 새로이 접할 수 있었습니다. 감사합니다.


전체 502
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 10351
관리자 2020.03.12 0 10351
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 8966
관리자 2020.03.12 0 8966
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 10070
관리자 2020.03.12 0 10070
499
[Paper Review]SLMREC: Distilling Large Language Models Into Small For Sequential Recommendation (1)
Doyoon Kim | 2025.05.01 | 추천 0 | 조회 27
Doyoon Kim 2025.05.01 0 27
498
[Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables (12)
Sunghun Lim | 2025.04.24 | 추천 0 | 조회 123
Sunghun Lim 2025.04.24 0 123
497
[Paper Review] Imputation-based Time-Series Anomaly Detection with Conditional Weight-Incremental Diffusion Models (12)
Suyeon Shin | 2025.04.21 | 추천 0 | 조회 116
Suyeon Shin 2025.04.21 0 116
496
[Paper Review] Revisiting Multimodal Fusion for 3D Anomaly Detection from an Architectural Perspective (14)
Woongchan Nam | 2025.04.16 | 추천 0 | 조회 159
Woongchan Nam 2025.04.16 0 159
495
[Paper Review] Your Large Vision-Language Model Only Needs A Few Attention Heads For Visual Grounding (16)
Kiyoon Jeong | 2025.04.16 | 추천 0 | 조회 296
Kiyoon Jeong 2025.04.16 0 296
494
[Paper Review] Reasoning over Time Series with LLMs (15)
Hyeongwon Kang | 2025.04.09 | 추천 0 | 조회 333
Hyeongwon Kang 2025.04.09 0 333
493
[Paper Review] Accurate predictions on small data with a tabular foundation model (16)
Jaehyuk Heo | 2025.04.02 | 추천 0 | 조회 323
Jaehyuk Heo 2025.04.02 0 323
492
[Paper Review] Reasoning and Reinforcement Learning for LLM (15)
Jaehee Kim | 2025.04.02 | 추천 0 | 조회 325
Jaehee Kim 2025.04.02 0 325
491
[Paper Review] LLM based Recommender Systems : EAGER-LLM (19)
Jungho Lee | 2025.04.02 | 추천 0 | 조회 273
Jungho Lee 2025.04.02 0 273
490
[Paper Review] Data-driven discovery of coordinates and governing equations (18)
Hankyeol Kim | 2025.03.25 | 추천 0 | 조회 253
Hankyeol Kim 2025.03.25 0 253

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 허재혁 : jaehyuk.heo@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호