[Paper Review] Negative Label Guided OOD Detection with Pretrained Vision-Language Models

Paper Review
작성자
Kyoungchan Park
작성일
2024-03-21 22:32
조회
1248

Topic


  • Negative Label Guided OOD Detection with Pretrained Vision-Language Models, ICLR 2024.

Overview


  • VLM을 활용한 zero-shot OOD detection에서 negative label (OOD label) set을 구성하는 기법을 제안한 후 이를 활용하여 OOD detection 성능을 향상 시킴.
  • 본 논문의 방법론의 효과를 이론적 실험적으로 증명함

발표자료 및 발표영상


  • 발표자료: 첨부 파일 참조
  • 발표영상: 추후 업로드 예정

참고문헌


  1. “Delving into Out-of-Distribution Detection with Vision-Language Representations”, Neruips 2022.
  2. “Zero-Shot Out-of-Distribution Detection Based on the Pre-trained Model CLIP”, AAAI 2022.
  3. "CLIPN for Zero-Shot OOD Detection: Teaching CLIP to Say No", ICCV 2023
전체 17

  • 2024-04-04 00:42

    이번 세미나에서는 "Negative Label Guided OOD Detection with Pretrained Vision-Language Models"라는 논문에 대한 소개를 중심으로 진행되었습니다. 이 연구의 핵심은 Pretrained Vision-Language Models(VLMs)을 활용하여 zero-shot OOD detection을 가능하게 하는 것이며, 이 과정에서 negative label set을 구성하는 새로운 기법을 제시하였습니다. NegLabel 방법론은 Negative Semantic Text Information을 활용하여, 각각의 ID dataset에 대해 Negative label을 생성합니다. 이는 기존의 ZOC 방법론과 비슷하지만, ZOC가 각 테스트 데이터마다 Negative label을 생성하는 데 반해, NegLabel은 ID dataset에 대해 생성된다는 점이 다르다고 할 수 있습니다. 이 과정에서 NegMining이라는 절차가 필요하며, 이를 통해 대용량의 코퍼스로부터 negative cosine similarity를 계산한 후 top-K sampling을 통해 Negative label을 생성합니다. 또한, 본 연구는 OOD score를 계산할 때 ID label과 Negative label 모두를 활용하는 Scoring & Grouping Strategy를 제안하였습니다. 이 방법을 통해 Negative label들이 ID label과 유사한 semantic information을 가질 경우에 발생할 수 있는 성능 저하를 방지하였습니다. VLM의 적용 범위가 무궁무진하게 넓어지는 중에 OOD Detection에도 VLM을 적용한 연구에 관해 설명해 주셔서 좋았습니다. 좋은 발표 해주셔서 감사합니다.


  • 2024-04-04 11:03

    이번 세미나에서는 Negative Label Guided OOD Detection with Pretrained Vision-Language Models라는 논문을 다루었습니다. 해당 논문에서는 CLIPN과 마찬가지로 text의 negative semantic information을 활용하는 방법론을 제안합니다. 먼저 대용량의 corpus로부터 distance를 계산하여 top-K sampling을 통해 negative를 생성하는 NegMining 절차를 거칩니다. 그 후에 OOD score를 ID label과 OOD label을 활용하여 softmax scaling을 통해 계산합니다. 이를 통해 ID label과 유사한 semantic information을 가진 OOD label들로 인해 성능이 저하되는 것을 방지할 수 있습니다. 실험에서도 OOD label set을 활용하는 것이 OOD detection 성능을 향상시킬 수 있다는 것을 보입니다. VLM을 OOD detection에서 활용하는 방법론을 배울 수 있던 유익한 시간이었습니다. 좋은 발표 감사합니다.


  • 2024-04-01 16:30

    이번 세미나에서는 ODD Detection Task에 VLM을 사용하고자 하는 논문인 Negative Label Guided OOD Detection with Pretrained Vision-Language Models 에 대해 다뤄주셨습니다. 해당 논문은 VLM을 활용한 zero-shot ood detection을 다루고 있으며, negative label set을 통해 OOD detection 성능이 향상될 수 있음을 보여주고 있습니다. 기존에도 VLM과 negative semantic information을 활용하는 방법론들도 존재 했지만 본 논문에서 제안하는 방법론과의 차이점은 test data마다가 아닌 ID dataset에 대해 negative semantic information을 생성한다는 점입니다. 이를 생성하기 위한 NegMining 절차가 필요하며 대용량의 corpus로 부터 distance를 계산한 후 top-K sampling을 통해 Y-를 생성하게 됩니다. 인상깊었던 부분은 논문에서 motivation과 방법론 제안에서 끝나는 것이 아닌 이론적 고찰이 있었던 점입니다. OOD label (Neg label)의 효과를 multi-label classification 관점에서 해석하고 있으며 적절한 OOD label Y-개의 갯수를 선택하는 경우 FPR이 감소하는 것을 보여주고 있습니다. VLM을 사용하는 점이 AD와 OOD Detection이 상당히 유사하다라는 생각이 들었으며 negative label도 AD에서 사용할 수 있지 않을까 하는 생각이 들었습니다. 좋은 발표 감사합니다!


  • 2024-04-04 22:22

    금일 세미나는 OOD Detection에 VLM을 적용한 'Negative Label Guided OOD Detection with Pretrained Vision-Language Models' 라는 논문에 대해서 소개해 주셨습니다. 해당 논문에서는 기존 ZOC 방법론과 다르게 In-Domain Dataset에 대해서 Negative label을 생성해 내는 방법을 제시하고 있습니다. 이 때, 대용량의 Corpus로 부터 Distance를 계산한 후 Top-K Sampling을 통해 Negative label을 생성하는데 최대한 Outlier의 영향을 최소화하고자 Distance를 0.05의 Percentile로 계산이 수행되어 집니다. 이외에 OOD label (Negative label) M개를 n개의 그룹으로 나눈 후 각 그룹별로 평균 Score를 OOD Score로 활용하는 방법을 제시하고 있는데 이는 In-Domain Label과 유사한 Semantic 정보를 가지고 있는 OOD label의 영향력을 최소화 하고자 각 그룹별 연산을 수행하는 것을 알 수 있었습니다. 해당 방법론을 보면서 CLIPN과 같은 VLM을 활용한 다양한 방법론들이 등장함에 따라 Training에 많은 한계가 있을 것이라고 생각되었는데 제안된 방법처럼 Training이 필요없는 것이 현재의 수준에서는 VLM을 다양한 task에 활용하기 위한 현실적인 방안이지 않나 개인적으로 생각이 들었던 것 같습니다. 좋은 발표 정말 감사드립니다!


  • 2024-04-04 23:19

    이번 세미나에서는 "Negative Label Guided OOD Detection with Pretrained Vision-Language Models" 논문을 소개해주셨습니다. 해당 연구는 기존의 이미지 중심의 방법론에서 한 발짝 나아가, Vision-Language Models (VLM)을 활용하여 OOD 샘플을 보다 정확하게 식별하는 방식을 탐구합니다. 특히 'NegMining'이라는 알고리즘을 도입하여, 대규모 텍스트 데이터베이스에서 추출한 'Negative Label'을 이용해 OOD 샘플을 구별하는 데에 중점을 두고 있습니다. NegMining 방법론은 ID(In-Distribution) 데이터셋 내에서 Negative Label을 생성하여, 이를 통해 OOD 데이터를 더욱 미세하게 식별할 수 있도록 합니다. 이 과정에서 ID 레이블과의 거리(즉, negative cosine similarity)를 기반으로 top-K sampling을 수행하여 Negative Label을 선택하는 방식이 도입되었습니다. 이러한 접근법은 OOD Detection의 정확도를 향상시킬 뿐만 아니라, 다양한 패턴을 학습하고 활용하는 데 중요한 역할을 합니다. NegMining 절차를 통해 생성된 Negative Label의 활용은 특히 흥미로웠으며, 이는 VLM을 사용한 Image OOD Detection에 있어 강력한 베이스라인을 제공할 것으로 기대됩니다. 좋은 발표 감사합니다.


  • 2024-04-05 00:29

    이번 세미나는 'Negative Label Guided OOD Detection with Pretrained Vision-Language Models'이라는 논문을 통해 VLM을 이용한 OOD Detection에 관한 연구를 소개해주셨습니다. 이 논문은 기존의 ZOC 방식과는 다르게, In-Domain 데이터셋에 부정적인 라벨을 부여하는 새로운 접근법을 제안합니다. 특히, 대규모 코퍼스에서의 거리를 측정하여 Top-K 샘플링으로 부정 라벨을 생성할 때, 아웃라이어의 영향을 줄이기 위해 거리를 0.05 퍼센타일로 정하는 방식이 도입되었습니다. 또한, OOD 라벨을 여러 그룹으로 나누어 각 그룹의 평균 점수를 OOD 점수로 활용하는 방법이 소개되었는데, 이는 In-Domain 라벨과 의미론적으로 유사한 OOD 라벨의 영향을 최소화하기 위한 전략으로 해석됩니다. 이러한 방법론을 접하면서, CLIP과 같은 VLM을 활용한 연구가 증가함에 따라 훈련의 한계를 느꼈지만, 이번 연구처럼 훈련 없이도 VLM을 다양한 작업에 적용할 수 있는 현실적인 대안이 될 수 있음을 보여준 것 같습니다. 좋은 발표 감사합니다!


  • 2024-04-05 22:30

    이번 세미나는 Negative Label Guided OOD Detection with Pretrained Vision-Language Models를 주제로 진행되었습니다. 본 논문에서 제안하는 MCM은 OOD detection task에 VLM을 접목한 연구로 negative semantic information을 활용하고 있습니다. 대용량의 corpus로부터 distance(negative cosine similarity)를 계산한 후 top-K sampling을 통해 Y−를 구하는 NegMining을 사용하였으며, ID label Y와 OOD label Y-를 활용한 softmax scaling을 통해 OOD score를 산출하는 방법을 사용하였습니다. 발표자분께서 항상 OOD detection 관련 연구들을 소개해주셨는데 vision-language model에 접목한 연구는 처음이었어서 좀 더 관심 가지며 재미있게 들을 수 있었습니다. 좋은 발표 감사합니다.


  • 2024-04-06 14:08

    이번 세미나에서는 “Negative Label Guided OOD Detection with Pretrained Vision-Language Models”에 대해 소개해주셨습니다. 해당 논문은 기존 연구였던 ZOC와 CLIPN과 유사하게 OOD information을 활용하는 방법론에 대해 제안합니다. OOD인 Negative label Y-를 생성하고 이를 활용한다는 것은 ZOC와 유사한 흐름을 가지지만, 해당 Y-를 test data가 아닌 ID dataset에 대해 생성된다는 차이점을 가집니다. 이를 위해 대용량의 corpus를 활용하여 negative cosine similarity를 계산하고 이를 distance로 하여 top-k sampling으로 Y-를 생성하는 Negmining 아이디어를 적용합니다. 특히 본 논문에서는 OOD label을 Multi-label classification으로 접근하여 해석하고 있다는 점이 흥미로웠습니다. 좋은 발표 감사드립니다.


  • 2024-04-25 14:11

    이번 세미나는 "Negative Label Guided OOD Detection with Pretrained Vision-Language Models" 논문에 대하여 소개해 주셨습니다. 해당 방법론은 CLIP을 기반으로는 OOD detection에 대한 연구로 CLIP이 가지는 zero-shot performance의 장점을 OOD detection에 적용하여 Negmining을 통해 Negative Label으로 zero-shot OOD detection을 수행하는 방법입니다. Negative Label을 사용하는 점에서는 CLIP을 기반으로 zero-shot OOD detection을 위해 제안된 ZOC 방법과 유사하지만 본 연구에서 제안한 방법론은 대용량 corpus에서 Negmining을 적용하여 유사도 기반으로 In-distribution의 class label를 통해 negative label을 추출한다는 점에서 차이가 존재하였습니다. 간단한 방법임에도 가장 최근에 나온 CLIP OOD detection 방법으로 zero-shot 성능이 우수한 점이 인상깊었습니다. 좋은 발표 감사합니다.


  • 2024-03-23 13:12

    이번 세미나에서는 Vision-Language Models(VLM)을 활용한 Zero-shot Out-Of-Distribution 검출 분야에서 새로운 방법론을 제안한 “Negative Label Guided OOD Detection with Pretrained Vision-Language Models” 논문에 대해서 발표해 주셨습니다. 기존 연구들이 주로 이미지 정보에만 초점을 맞춘 반면, 이 연구는 텍스트 모달리티의 정보를 결합하여 OOD 검출의 성능을 높입니다. 특히 인상깊었던 점은 'Negative Label' 개념의 도입입니다. 이는 대규모 Corpus 데이터베이스에서 수많은 부정적 레이블을 추출하여, 이를 활용해 OOD(Out-of-Distribution) 샘플을 더욱 정교하게 구분하는 방법을 제시하였습니다. 이를 통해 모델이 ID(In-Distribution) 샘플과 OOD 샘플 간의 구분을 더 명확하게 할 수 있도록 지원합니다. 또한 'NegMining' 알고리즘을 통해 고품질의 부정적 레이블을 선정하는 방식이 돋보였습니다. 이는 의미론적으로 ID 레이블과 큰 차이를 보이는 레이블을 선정함으로써, OOD 샘플에 대한 모델의 감별 능력을 향상시킵니다. 본 논문에서 제안한 NegLabel 점수는 OOD 샘플의 식별력을 극대화하기 위해, ID 레이블과 부정적 레이블 간의 유사도를 효과적으로 통합합니다. 이는 기존 방법들과 비교했을 때, 더 정밀한 OOD 검출을 가능하게 하였습니다. 결론적으로, NegLabel 방법론은 다양한 OOD 검출 벤치마크에서 SOTA 성능을 달성하였으며, 다양한 VLM 아키텍처에 걸쳐 강력한 일반화 능력을 보였습니다. VLM 방법론이 Anomaly Detection 등 다양한 연구 분야에서 잘 활용되고 있다는 것을 알게 된 좋은 발표 해주셔서 감사합니다.


  • 2024-03-24 18:42

    금일 세미나는 OOD Detection 시 사전학습된 VLM을 활용하는 "Negative Label Guided OOD Detection with PretrainedVision-Language Models"을 중심으로 진행되었습니다. 해당 방법론은 기존 OOD Detection 논문들이 주장하는 바와 같이 대형 데이터로 학습된 모델을 활용하면 추가 학습 없이도 높은 성능을 달성할 수 있다는 점에 집중하고 있습니다. 특히, CLIPN 논문을 기반으로 Negative Label의 Label Word를 Mining하는 방법론을 제안하고 있습니다. 하지만 기존 ZOC 논문과 달리 Negative Label Word는 OOD 및 Test Data를 이용하지 않고, ID에서 산출되는 특징이 있습니다. 즉, CLIPN처럼 ID 데이터와 먼 Label Word가 Negative Label Word로서 역할을 할 수 있다고 가정합니다. 이에 맞추어 대용량 코퍼스에서 ID Label Word와 거리가 먼 단어들을 Top-K Sampling하여 생성합니다. 그 이후 해당 Label Word에 대해 Grouping 후 Softmax 함수를 이용하여 OOD Score를 산출하는 것이 가장 큰 특징입니다. 결론적으로 단순히 Negative Label Word를 샘플링하고, 이를 Softmax를 통해 활용하는 방법론임에도 불구하고 우수한 학회에 발표된 이유는 해당 과정에 대해 엄밀한 수학적 증명을 수행한 점에 있다고 생각합니다. 방법론이 단순해질수록 기저의 이론이 단단해지는 하나의 사례를 볼 수 있었습니다. 좋은 발표 감사합니다.


  • 2024-03-26 13:57

    본 세미나는 "Negative Label Guided OOD Detection with Pretrained Vision-Language Models"이라는 논문을 바탕으로 진행되었습니다. 해당 논문은 OOD Detection이라는 분류 문제에서 학습하지 못한 unseen class(=OOD class)에 해당하는 data를 탐지함으로써 오분류를 방지하고자 하는 연구입니다. 특히 Classifier는 ID class는 잘 구분할지라도 OOD data를 탐지하는 능력이 떨어지며, 이는 학습 과정에서 ID class를 잘 분류할 수 있는 특정 pattern들만을 집중적으로 학습하게 되기 때문입니다. 따라서 OOD Detection 성능을 향상시키기 위해서는 더 많은 pattern을 학습하고 이를 활용해야 할 특징이 있습니다. 해당 논문 방법론의 가장 큰 특징은 test 단에서 negative semantic information(OOD information)을 활용할 수 있는 새로운 방법론을 제안한 것으로, ZOC라는 논문과 마찬가지로 OOD label에 해당하는 negative label Y-를 생성한 후 이를 활용하고 있습니다. 하지만 ZOC와 달리 Y-는 test data마다가 아니라 ID dataset에 대해서 생성된다는 특징이 있습니다. 따라서 Y-를 생성하는 NegMining 절차를 필요로 하고, 대용량의 corpus로부터 distance(negative cosine similarity)를 계산한 후, top-K sampling을 통해 Y-를 생성하고 있습니다. 해당 세미나를 들으면서 든 생각은 결국 추가적인 OOD label set을 통하여 OOD Detection 성능이 향상되었고, 특히 NegMining이라고 하는 ID label set으로부터 OOD label set을 구성하는 기법이 유효했다고 생각했습니다. 좋은 발표 준비해주셔서 감사합니다.


  • 2024-04-01 09:38

    이번 세미나에서 소개된 "Negative Label Guided OOD Detection with Pretrained Vision-Language Models" 논문은 Vision-Language Models(VLM)을 이용한 Zero-shot Out-Of-Distribution(OOD) Detection 방법론을 제안합니다. 이 연구는 기존의 이미지 중심의 OOD Detection 방식에서 벗어나 텍스트를 통합하여 멀티모달을 지향한 점이 중요한 특징입니다. 구체적으론,대규모 텍스트 데이터베이스에서 추출한 'Negative Label'를 활용하여 OOD 샘플을 더 정밀하게 구별하는 방법론을 제안하였습니다. 또한, 'NegMining' 알고리즘을 통한 고품질의 부정적 레이블 선정 방식은 ID(In-Distribution) 레이블과 크게 다른 레이블을 보다 엄밀하게 선정함으로써, OOD 샘플 식별 능력의 향상을 이끌어냈습니다. 이러한 레이블 선택 방식은 모델이 ID 샘플과 OOD 샘플 간의 구분을 더욱 명확하게 할 수 있게 해주며, 특히 NegLabel 점수를 통해 ID 레이블과 Negative 레이블 간의 유사도를 효과적으로 결합하여 OOD 샘플의 식별력을 극대화하였습니다. OOD Detection에서 VLM을 활용한 케이스를 접할 수 있어 신선한 연구였던 것 같습니다. 좋은 발표 감사합니다.


  • 2024-04-02 13:52

    이번 세미나는 Pretrained Vision-Language Model을 통해 OOD Detection을 수행하는 내용의 "Negative Label Guided OOD Detection with Pretrained Vision-Language Models"라는 논문에 대한 발표를 중심으로 진행되었습니다. OOD Detection이란, Classificaton 문제에서 학습하지 못한 OOD class에 해당하는 Data를 탐지하여 오분류를 방지하고자 하는 연구 분야입니다. 이러한 OOD Detection을 위해선 기존 Classifier의 학습 과정에서처럼 ID class를 잘 분류할 수 있는 특정 Pattern에 대해서만 집중해서 학습하는 것이 아닌, 더 넓은 범위에서의 Pattern 정보가 필요합니다. 이를 위해서 최근 Image와 Text를 매칭할 수 있도록 학습되어 Image 뿐만 아니라 Text의 영역에서도 Pattern 정보를 추출할 수 있는 VLM을 OOD Detection에 활용하는 연구들이 활발하게 진행되고 있습니다. VLM을 활용한 OOD Detection에 관한 연구에서는 Negative Semantic Text Information을 어떻게 활용할 것인가가 주요한 연구 포인트가 되며, 이번 세미나에서 소개된 논문에서도 사전학습된 VLM을 활용해 Zero-Shot OOD Detection을 수행합니다. 해당 방법론에서는 대용량의 Corpus로부터 Negative Cosine Similarity를 계산하여 이에 대한 Top-K Sampling을 통해 Negative Label Set을 구성하는 NegMining이라는 기법을 활용하여 OOD Detection의 성능을 향상시켰습니다. 흔히 VLM의 Task를 생각해보면, Image-Text Retrieval, VQA, Image Captioning 등을 생각하는데 사전학습된 VLM을 통해 OOD Detection에서도 효과적으로 적용시킬 수 있다는 점이 매우 흥미로웠습니다. 아직 개인적으로 VLM의 학습 방식에 대한 개선이 뒷받침 되었을 때 지금보다 더 넓은 범위의 Task에 적용할 수 있다는 생각을 했었는데. 이렇게 새로운 연구 분야에서 좋은 성능을 내고 있다는 점을 알게되어 많은 관심이 생겼습니다. 좋은 발표 해주셔서 감사합니다.


  • 2024-04-03 13:27

    금일 세미나는 Negative Label Guided OOD Detection with PretrainedVision-Language Models라는 이름의 논문을 바탕으로 진행되었습니다. 해당 연구는 이름에서도 알 수 있듯이 VL을 통한 OOD detection 방법론을 제안하는 Task입니다. 이러한 OOD detection이 잘 이루어지기 위해서는, OOD만을 위한 성능을 향상 시킬 Pattern을 학습하고 활용할 수 있어야 한다고 말하고 있습니다. VL base의 OOD detection의 최근 연구들에서는 “NO”와 같은 text 단에서 Negative semantic information, 즉 OOD information을 고려하도록 새롭게 학습한 Text Encoder를 추가해주고 있습니다. 해당 논문에서 제안하는 방법 역시 Text 단에서 Negative semantic information을 활용하고자 OOD label에 해당하는 Negative label을 생성한 후 활용해주는데, 이를 ID dataset에 대하여 생성해주고 있었습니다. 이때, 이러한 Negative label을 생성하기 위하여 대용량의 corpus로 부터 Distance를 계산한 후, Top-k sampling을 통하여 생성하는 NegMining 절차를 수행합니다. 이후, 이렇게 구해진 OOD label과, ID label 모두를 활용하여 OOD score를 구한 후, softmax scaling을 통하여 최종 OOD score를 도출합니다. 최근 Large model들의 발전으로 인하여 다양한 Task의 수행 방식에서 Large model을 적용하는 방향으로 큰 변화가 생기는 것 같습니다. Background부터 하나하나 자세하게 설명해주셔서 이해가 수월했습니다. 좋은 발표 정말 감사드립니다.


  • 2024-04-03 14:15

    이번 세미나에서는 Negative Label Guided OOD Detection with Pretrained Vision-Language Models라는 연구에 대해 소개해 주셨습니다. 해당 연구는 Zero-shot OOD Detection 시 Vision-Language Model을 이용할 때 ZOC, CLIPN과 유사하게 텍스트에 OOD에 대한 정보를 활용하는 방법론을 제안했습니다. 기본적인 구조는 CLIP과 마찬가지로 Contrastive Learning 형태를 지니고 있기에 Negative를 어떻게 정의할 것인지가 중요합니다. 선행 연구인 ZOC와 동일하게 OOD Label에 해당하는 Negative Label을 생성한 후 활용하는데, Test Data마다가 아닌 ID Dataset에 대해 생성한다는 차이가 있습니다. Negative Mining을 위해 Corpus로부터 Distance를 기준으로 Top-k개를 샘플링하는 방식을 이용합니다. 이 과정에서 Outlier의 영향을 최소화하기 위해 0.05 Percentile을 이용해 Distance를 계산하는 등 성능 하락을 방지하기 위한 세심한 설계가 이루어져 있었습니다. 익숙하지 않은 내용이라 완벽히 이해하지는 못했지만, 발표자 분의 설명력 덕분에 이해에 많은 도움을 받았습니다. 좋은 발표 감사합니다.


  • 2024-04-03 19:50

    이번 세미나에서는 Image OOD Detection에 Text Modality를 도입, 함께 사용함으로써 그 성능을 더욱 끌어올리고자 했던 논문 "Negative Label Guided OOD Detection with Pretrained Vision-Language Models"에 대해 탐구해보았습니다. 말그대로 OOD Detection을 할 때, 해당 이미지로부터 나온 Feature 정보만 활용하는 것이 아니라, VLM을 통해 얻을 수 있는 해당 이미지에 대한 텍스트 Feature를 함께 사용하는 것입니다. 그렇기 때문에, 어떤 텍스트에 대한 Feature를 얻을지와 얻은 Feature를 어떻게 사용할지가 중요한 연구 분야가 되겠다는 생각을 했습니다. 본 논문에서는 해당 이미지에 Align할 수 있는 Negative Label, 즉, 해당 이미지가 OOD라면 매칭되게 될 텍스트 Feature를 선행 연구에서처럼 OOD나 Test set에서 직접 가져오지 않고, ID set 내에서 한번에 생성하는 방법을 택합니다. 이 때, 그렇다면 그 ID set 중에서 어떤 Label들을 가져올 지에 대한 방법론이 필요하고, 본 논문은 이를 위해 NegMining이라는 방법론을 도입합니다. 핵심 아이디어는, 대용량의 Corpus 중 ID Label과의 거리를 측정해, (ID와의 거리가 먼 Label들은 직관적으로 OOD라고 취급할 수 있으므로) 거리가 먼 순으로 하여 Top-k Sampling을 통해 OOD Label들을 만들어줍니다. 이후에는, 간단하게 이렇게 뽑힌 Text OOD Label에 높은 유사도를 가지는 경우에는 OOD라고 취급할 수 있으므로 이러한 정보를 사용하는 것입니다. 비교적 방법론이 간단하여 논리 구조가 깔끔하다는 생각을 하였고, 별도의 무거운 Training이 필요하지 않으므로, 많은 경우에 VLM을 사용한 Image OOD Detection에 간단하게 사용해볼 수 있는 Baseline의 역할을 할 것으로 예상되는 좋은 모델이라는 생각이 들었습니다. 좋은 논문 소개해 주셔서 감사합니다!


전체 512
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 10683
관리자 2020.03.12 0 10683
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 9303
관리자 2020.03.12 0 9303
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 10402
관리자 2020.03.12 0 10402
509
New [Paper Review] Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?
Minjeong Ma | 13:38 | 추천 0 | 조회 4
Minjeong Ma 13:38 0 4
508
비밀글 [Rehearsal] 석사학위 논문심사 - 마민정 (19)
Minjeong Ma | 2025.06.02 | 추천 0 | 조회 36
Minjeong Ma 2025.06.02 0 36
507
비밀글 [Rehearsal] 석사학위 논문심사 - 정기윤 (20)
Kiyoon Jeong | 2025.06.02 | 추천 0 | 조회 33
Kiyoon Jeong 2025.06.02 0 33
506
비밀글 [Rehearsal] 석사학위 논문심사 - 남웅찬 (19)
Woongchan Nam | 2025.06.02 | 추천 0 | 조회 32
Woongchan Nam 2025.06.02 0 32
505
비밀글 [Rehearsal] 석사학위 논문심사 - 이상민 (21)
SangMin Lee | 2025.06.02 | 추천 0 | 조회 34
SangMin Lee 2025.06.02 0 34
504
[Paper Review] Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems (5)
Siyul Sung | 2025.05.31 | 추천 0 | 조회 93
Siyul Sung 2025.05.31 0 93
503
[Paper Review] Restructuring Vector Quantization with the Rotation Trick (14)
Woojun Lee | 2025.05.20 | 추천 0 | 조회 197
Woojun Lee 2025.05.20 0 197
502
[Paper Review] Battling the Non-stationarity in Time Series Forecasting via Test-time Adaptation (16)
Jinwoo Park | 2025.05.16 | 추천 0 | 조회 176
Jinwoo Park 2025.05.16 0 176
501
[Paper Review] SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning (18)
Hun Im | 2025.05.15 | 추천 0 | 조회 166
Hun Im 2025.05.15 0 166
500
[Paper Review] AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP (18)
Junyeong Son | 2025.05.08 | 추천 0 | 조회 302
Junyeong Son 2025.05.08 0 302

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 허재혁 : jaehyuk.heo@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호