Topic
Overview
발표자료 및 발표영상
참고문헌
번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 10502
|
관리자 | 2020.03.12 | 0 | 10502 |
공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 9105
|
관리자 | 2020.03.12 | 0 | 9105 |
공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 10222
|
관리자 | 2020.03.12 | 0 | 10222 |
500 |
[Paper Review] AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP (6)
Junyeong Son
|
2025.05.08
|
추천 0
|
조회 89
|
Junyeong Son | 2025.05.08 | 0 | 89 |
499 |
[Paper Review]SLMREC: Distilling Large Language Models Into Small For Sequential Recommendation (11)
Doyoon Kim
|
2025.05.01
|
추천 0
|
조회 131
|
Doyoon Kim | 2025.05.01 | 0 | 131 |
498 |
[Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables (18)
Sunghun Lim
|
2025.04.24
|
추천 0
|
조회 241
|
Sunghun Lim | 2025.04.24 | 0 | 241 |
497 |
[Paper Review] Imputation-based Time-Series Anomaly Detection with Conditional Weight-Incremental Diffusion Models (17)
Suyeon Shin
|
2025.04.21
|
추천 0
|
조회 185
|
Suyeon Shin | 2025.04.21 | 0 | 185 |
496 |
[Paper Review] Revisiting Multimodal Fusion for 3D Anomaly Detection from an Architectural Perspective (15)
Woongchan Nam
|
2025.04.16
|
추천 0
|
조회 206
|
Woongchan Nam | 2025.04.16 | 0 | 206 |
495 |
[Paper Review] Your Large Vision-Language Model Only Needs A Few Attention Heads For Visual Grounding (17)
Kiyoon Jeong
|
2025.04.16
|
추천 0
|
조회 400
|
Kiyoon Jeong | 2025.04.16 | 0 | 400 |
494 |
[Paper Review] Reasoning over Time Series with LLMs (16)
Hyeongwon Kang
|
2025.04.09
|
추천 0
|
조회 412
|
Hyeongwon Kang | 2025.04.09 | 0 | 412 |
493 |
[Paper Review] Accurate predictions on small data with a tabular foundation model (17)
Jaehyuk Heo
|
2025.04.02
|
추천 0
|
조회 409
|
Jaehyuk Heo | 2025.04.02 | 0 | 409 |
492 |
[Paper Review] Reasoning and Reinforcement Learning for LLM (16)
Jaehee Kim
|
2025.04.02
|
추천 0
|
조회 406
|
Jaehee Kim | 2025.04.02 | 0 | 406 |
491 |
[Paper Review] LLM based Recommender Systems : EAGER-LLM (20)
Jungho Lee
|
2025.04.02
|
추천 0
|
조회 324
|
Jungho Lee | 2025.04.02 | 0 | 324 |
금일 세미나는 일반적인 이미지 데이터를 통한 segmentation 태스크를 학습한 모델을 통해 일반화된 AD 모델 학습 방법론을 제안하는 “MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning”을 중심으로 진행되었습니다. Anomaly Data는 정상 이미지들에서 나타나지 않는 패턴이 등장한 경우라고 정의할 경우, 이는 결국 기존 이미지 도메인의 segmentation 태스크와 유사한 특징을 가지게 됩니다. 이러한 문제 정의 하에 해당 논문에서는 'apperance', 'disapperance', 'exchage'의 세가지 관점으로 데이터를 생성하고 학습하게 됩니다. 특히나 일반 이미지로 학습하였음에도 실제 공정 데이터의 Anomaly 탐지 성능이 기존 방법론 대비 향상되는 모습을 보이고 있고, 그 폭 역시 매우 큰것으로 나타나 향후 Image AD 분야에서 중요한 접근법이 될 수 있을 것으로 보입니다. 무엇보다 이미지 도메인에서 널리 연구되고 있는 방식을 도입한 만큼 scaling law를 이용한 빠른 성능 개선이나 다양한 문제 해결이 가능할 것으로 기대되는 연구였습니다. 좋은 발표 감사합니다.
이번 세미나에서는 "MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning" 라는 논문에 대한 소개를 중심으로 진행되었습니다. 이 연구는 이상치 탐지를 change segmentation 관점으로 접근하여, 전통적인 이상 탐지 방식과는 다른 새로운 시각에서 문제를 해결하고자 하였습니다. 구체적으로, One-prompt Meta-learning 프레임워크를 통해 일반적인 프롬프트 이미지와 함께 변화 여부를 판단하는 방식을 제안하였습니다. 해당 논문은 변화 탐지에 초점을 맞추고, 이를 위해 MetaUAS라는 새로운 데이터셋을 구성하여 학습하였습니다. 여기서는 객체 수준(object-level)과 지역 수준(local-region)의 변화를 생성하는 방법을 제안합니다. 본 연구의 실험 결과는 MetaUAS가 다양한 이상 탐지 시나리오에서 높은 성능을 보임을 확인했으며, 특히 변화가 있는 이미지를 기반으로 하는 세그멘테이션에서 좋은 결과를 보여주었습니다. 하지만, 프롬프트 이미지의 선택에 따라 성능이 크게 변동될 수 있으며, 이는 향후 연구에서 고려해야 할 중요한 요소로 지적되었습니다. 이 논문은 기존의 이상치 탐지 방법과는 다르게 변화 탐지를 통한 접근 방식을 제안함으로써, 다양한 분야의 이상 탐지 연구에서 응용 가능성이 기대됩니다. 좋은 발표 해주셔서 감사합니다.
이번 세미나에서는 “MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning” 논문을 중심으로, 기존 Image Anomaly Detection의 관점을 Change Segmentation으로 전환하여, 일반 이미지 도메인에서 학습된 segmentation 모델을 활용해 다양한 도메인의 Anomaly Data를 효과적으로 탐지할 수 있는 방법론이 소개되었습니다. 본 연구는 Anomaly Data를 정상 이미지에 나타나지 않는 패턴으로 정의하고, ‘appearance’, ‘disappearance’, ‘exchange’의 세 가지 관점에서 데이터를 생성 및 학습함으로써, MS COCO와 같은 Natural Image를 통한 학습 후 하나의 Prompt Image로 다른 도메인에 Adaptation이 가능함을 입증하였습니다. 또한, Query Image와 Prompt Image 간의 Feature Alignment를 위한 FAM 모듈과 U-Net 방식의 Decoder를 활용한 Segmentation 결과 생성 기법을 도입해, Zero-Shot 혹은 Few-Shot 환경에서도 의미 있는 성능 개선을 달성하였으며, scaling law를 적용한 빠른 성능 개선 가능성도 확인된 점이 인상적이었습니다. 좋은 발표 감사합니다.
이번 세미나에서는 “MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning” 논문이 발표되었습니다. 기존 Image Anomaly Detection을 Change Segmentation 관점으로 재해석하고, Language Guidance 없이 Visual Encoder만을 활용한 Zero-Shot 및 Few-Shot 이상 탐지를 수행하는 새로운 접근법을 제안합니다. MetaUAS는 **Feature Alignment Module(FAM)**을 통해 Query와 Prompt 간 Feature 정렬을 수행하고, U-Net 기반 Decoder로 Segmentation 출력을 생성합니다. 특히, MS COCO 데이터셋을 활용한 학습을 통해 다양한 도메인에서 하나의 Prompt로도 적응 가능하며, CLIP 기반의 Prompt 선택 전략을 적용한 MetaUAS+ 모델이 더욱 정교한 탐지를 수행함을 실험적으로 입증하였습니다. 모델 크기가 작으면서도 높은 성능을 보였다는 점이 인상적이었으며, Change Segmentation 기반 접근법이 Open-world 시나리오에서의 가능성을 확장한 연구라고 생각합니다. 좋은 발표 감사합니다.
이번 세미나는 기존 Image Anomaly Detection에 대한 관점을 Change Segmentation으로 바꿔 접근하여, 기존 Zero-Shot Anomaly Detection 모델들이 Language Guidance를 통해 과업을 수행한 것을 Visual Model 만으로 얼마나 수행할 수 있을지에 대해 연구를 진행한 “ MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning” 이라는 논문에 대한 발표를 중심으로 진행되었습니다. MetaUAS는 크게 두 가지의 모듈로 구성됩니다. 첫 번째는, Query Image와 Prompt Image 간의 Feature Alignment를 위한 FAM 모듈과 FAM 모듈의 결과 및 Query Image의 Low-Level Representation을 활용해 Segmentation 결과를 생성하는 U-Net 방식의 Decoder입니다. 개인적으로 MetaUAS가 가지는 가장 큰 의의는 MS COCO 데이터셋, 즉 Natural Image를 활용한 학습을 통해서 다른 도메인에 대해서도 하나의 Prompt Image를 활용해 Adaptation이 가능하며, 결론적으로 Universal이라는 단어가 논문 제목에 포함된 것도 그러한 관점에서 중요한 의미를 가진다는 생각이 들었습니다. 모델 크기 또한 그리 크지 않은데 Zero-Shot 혹은 Few-Shot 세팅에서의 AD에서 아주 의미있는 성능이 보인 것 같아 좋은 연구라고 생각합니다. 좋은 발표 해주셔서 감사합니다.
이번 세미나에서는 Language Guidance 없이 Visual Encoder만을 활용해 Universal Anomaly Segmentation을 수행하는 방법을 제안한 ‘MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning’ 논문에 대해서 발표해 주셨습니다. 해당 방법론은 기존 이상치 탐지를 ‘Change Segmentation’ 관점으로 전환함으로써 Open-world 시나리오에서의 적용 가능성을 제시하였습니다. 이러한 접근 방식은 정상 및 이상 데이터 간의 차이를 단순히 분류하는 기존 방법과 달리, 변화 감지에 초점을 맞추어 보다 유연한 이상 탐지가 가능하도록 하였습니다. 또한, 변화를 효과적으로 학습하기 위해 제안된 Feature Alignment Module은 코사인 유사도를 활용한 Soft Alignment 기법을 적용하여 Query 이미지와 Prompt 이미지 간의 차이를 효과적으로 조정하였습니다. 무엇보다, 제안된 모델은 프롬프트 이미지 하나만으로 이상 여부를 탐지할 수 있는 One-prompt Meta-learning 프레임워크를 도입함으로써, 기존의 복잡한 학습 과정 없이도 높은 일반화 성능을 보여주었습니다. 이러한 MetaUAS+ 모델이 CLIP 기반의 이미지 인코더를 활용하여 Query와 가장 유사한 프롬프트를 선택함으로써 가장 뛰어난 성능을 보였다는 점이 매우 인상적이었습니다. 프롬프트 선택에 따라 성능의 변동이 크다는 점과 Semantic 정보를 함께 고려해야 하는 복잡한 환경에서는 적절한 프롬프트 선택이 어려울 수 있다는 한계도 존재였지만, Change Segmentation을 기반으로 한 이상치 탐지라는 획기적인 아이디어가 돋보인 논문이라고 생각합니다. 흥미로운 주제로 좋은 발표해 주셔서 감사합니다.
이번 세미나에서는 "MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning" 논문을 중심으로 발표가 진행되었습니다. 이 연구는 기존의 이미지 이상치 탐지를 ‘Change Segmentation’ 관점으로 전환하여, 언어 가이드 없이 시각적 인코더만을 활용해 이상치 탐지를 수행하는 방법론을 제시합니다. MetaUAS는 두 가지 주요 모듈, Feature Alignment 모듈과 U-Net 방식의 Decoder를 통해 Query 이미지와 Prompt 이미지 간의 특성을 정렬하고, 이를 바탕으로 세그멘테이션 결과를 생성합니다. 특히, MS COCO와 같은 자연 이미지를 활용한 학습을 통해 다양한 도메인에서 하나의 프롬프트로 적응할 수 있다는 점에서 ‘Universal’이라는 특성을 잘 보여줍니다. 이 모델은 Zero-Shot 및 Few-Shot 설정에서 뛰어난 성능을 보이며, 기존 모델들보다 더 간단한 프롬프트만으로도 높은 일반화 성능을 발휘합니다. 그러나, 성능의 변동성이 프롬프트 선택에 따라 크게 달라지며, 복잡한 환경에서는 적절한 프롬프트 선택이 어려울 수 있다는 한계도 존재합니다. 그럼에도 불구하고, Change Segmentation을 활용한 새로운 이상치 탐지 접근법이 매우 혁신적이며, Open-world 시나리오에서의 가능성을 열어주는 중요한 연구라고 생각합니다.
이번 세미나에서는 “MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning” 논문이 발표되었습니다. 해당 연구는 기존 Image Anomaly Detection을 ‘Change Segmentation’ 관점으로 전환하고, Visual Encoder만을 활용해 이상 탐지를 수행합니다. MetaUAS는 Feature Alignment Module과 U-Net 기반 Decoder로 구성되어 Query와 Prompt 이미지 간의 특성을 정렬하고 Segmentation 결과를 생성합니다. MS COCO 데이터를 활용한 학습으로 다양한 도메인에서 하나의 프롬프트로 적응 가능하며, Zero-Shot 및 Few-Shot 설정에서 우수한 성능을 보였습니다. 다만, 프롬프트 선택에 따른 성능 변동성과 복잡한 환경에서의 한계가 있지만, Change Segmentation 기반의 이상치 탐지 접근법이 매우 혁신적이며 Open-world 시나리오에서의 가능성을 제시한 연구였습니다. 좋은 발표 감사합니다.
이번 세미나에서는 이미지 이이번 세미나는 이미지 이상치 탐지를 주제로 진행되었습니다. 소개해주신 연구에서 제안하는 방법론인 MetaUAS는 Meta-learning framework for Universal Anomaly Segmentation의 약자로 일반적인 이미지 이상치 탐지의 관점을 change segmentation의 관점으로 바꾼 것이 핵심입니다. 정상의 이미지를 특정 rule에 따라 새로운 이미지로 생성하여, 정상 이미지와 생성된 이미지 간의 차이를 segmentation 과업으로 학습하도록 함이 주요 골자입니다. 다만, 생성된 이미지가 현실에서 발생하는 비정상 이미지와 얼만큼 유사할지, 즉 이러한 학습 방식이 현장에서 발생하는 비정상 이미지에도 적용 가능할지 궁금합니다. 아이디어는 충분히 참신했던 것 같습니다. 좋은 발표 감사합니다.상치 탐지에 관
이번 세미나에서는 "MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning" 논문이 소개되었습니다. 본 연구는 비전-언어 모델 없이 시각 정보만으로 범용 이상 탐지를 수행하는 새로운 접근법을 제안했습니다. 기존 방법들은 특정 데이터셋에 의존하거나 텍스트 기반 프롬프트를 사용하지만, 이 논문은 단 하나의 정상 이미지 프롬프트만으로 다양한 이상을 탐지할 수 있는 메타 학습 방식을 도입한 점이 인상적이었습니다.
핵심 아이디어는 이상 탐지를 변화 탐지 문제로 변환하여, 정상 프롬프트와 입력 이미지 간의 차이를 분석하는 방식입니다. 이를 통해 대규모 이상 탐지 데이터셋 없이도 효과적인 학습이 가능하며, 사전 학습된 비전-언어 모델 없이도 범용적인 이상 탐지를 수행할 수 있다는 점이 주목할 만합니다. 실험에서도 다양한 데이터셋에서 기존 방법 대비 높은 성능을 보이며, 적은 파라미터 수로 효율성을 극대화한 점이 인상적이었습니다.
또한, 정상 프롬프트와 입력 이미지 간의 기하학적 차이를 보정하는 소프트 특징 정렬 모듈을 활용하여 다양한 변형이 있는 데이터에서도 안정적인 탐지가 가능하도록 설계한 점이 실용적인 측면에서 강점이라고 생각됩니다.
이 논문은 이상 탐지 분야에서 비전-언어 모델 없이도 강력한 일반화 성능을 달성할 수 있음을 보여준 연구로, 향후 산업용 실시간 품질 검사 등 다양한 도메인에서 활용될 가능성이 높아 보입니다. 좋은 발표 감사합니다!
이번 세미나에서는 기존 Image Anomaly Detection을 Change Segmentation 관점으로 접근하여, Language Guidance 없이 Visual Model만으로 이상 탐지를 수행하는 방법을 제안한 "MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning" 논문을 다루었습니다. 특히, Query Image와 Prompt Image 간의 Feature Alignment를 수행하는 FAM 모듈과 이를 바탕으로 Segmentation 결과를 생성하는 U-Net 방식의 Decoder를 통해 효과적인 이상 탐지가 가능하다는 점이 인상적이었습니다. 무엇보다, MS COCO와 같은 자연 이미지 데이터셋을 활용해 학습하여 다양한 도메인에 적응할 수 있다는 점에서 ‘Universal’한 특징이 잘 드러났으며, Zero-Shot 및 Few-Shot 세팅에서도 유의미한 성능을 보였다는 점이 주목할 만했습니다. 다만, 프롬프트 선택이 성능에 큰 영향을 미친다는 점에서 실용적인 적용을 위해 추가적인 연구가 필요할 것으로 보였습니다. 그럼에도 불구하고, Change Segmentation 기반의 이상 탐지라는 새로운 접근법이 Open-world 시나리오에서의 가능성을 확장하는 데 기여했다는 점에서 의미 있는 연구라고 생각됩니다. 좋은 발표 감사합니다!
이번 세미나에서는 Zero-shot Anomaly Segmentation을 위한 MetaUAS 방법론을 제시한 논문을 중심으로 진행되었습니다. 기존 이상 탐지 모델들은 학습된 데이터셋에 포함되지 않은 새로운 이상치(Unseen Anomaly)에 대한 탐지가 어려웠으며, 본 연구에서는 One-Prompt Meta-Learning 기법을 도입하여 학습되지 않은 이상치에 대해서도 강건한 탐지 성능을 보이는 Universal Anomaly Segmentation(UAS) 방법을 제안하였습니다. MetaUAS는 Change Segmentation 개념을 활용하여 정상 데이터와 이상 데이터 간의 변화를 학습하는 방식으로 설계되었으며, Appearance, Disappearance, Exchange의 세 가지 변화 유형을 정의하고, 이를 학습하기 위한 Synthetic Change Segmentation 데이터셋을 구축하였습니다. 또한, Feature Alignment Module(FAM)을 적용하여 Prompt Feature와 Query Feature 간의 유사도를 조정하고, Inference 단계에서는 Class-Specific Query Image와 Class-Agnostic Query Image를 활용하여 Zero-shot 성능을 극대화하는 전략을 제시하였습니다. 실험 결과, MVTec, VisA, Goods 데이터셋에서 기존 SOTA 모델 대비 높은 AUROC 및 AUPRO 성능을 기록하며 범용적인 이상 탐지 모델로서의 가능성을 입증하였습니다.
이번 세미나에서는 “MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning” 논문을 중심으로 발표가 진행되었습니다. 본 연구는 기존의 이미지 이상 탐지를 ‘Change Segmentation’ 관점에서 접근하여, 언어 가이드 없이 시각적 인코더만을 활용해 이상 탐지를 수행하는 방법을 제안하고 있습니다. 특히, Query 이미지와 Prompt 이미지 간의 특징을 정렬하는 Feature Alignment Module(FAM)과 이를 기반으로 Segmentation 결과를 생성하는 U-Net 기반 Decoder를 도입하여, 하나의 프롬프트만으로도 다양한 도메인에 적용할 수 있다는 장점이 존재합니다. 해당 방법론이 참신하게 다가온 이유는, 기존 이상 탐지 기법들이 정상 데이터와 이상 데이터를 단순히 분류하는 방식과 달리, 정상 데이터 내에서의 변화(appearance, disappearance, exchange)를 학습함으로써 보다 유연한 이상 탐지가 가능하도록 설계되었다는 점입니다. 이러한 접근법은 Open-world 시나리오에서의 적용 가능성을 높이며, 기존의 Zero-Shot Anomaly Detection(ZSAD) 모델들이 Language Guidance를 활용했던 것과 달리, Visual information 만으로도 높은 성능을 달성할 수 있음을 보여주었기에 의의가 있는 연구였던 것 같습니다. 상세한 설명과 함께 좋은 발표 정말 감사드립니다.