[Paper Review] AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP

Paper Review
작성자
Junyeong Son
작성일
2025-05-08 16:43
조회
539
  1. 논문 제목
    • AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP
    • 링크 : https://arxiv.org/pdf/2503.06661
  2. Overview
    • CLIP의 Anomaly-Unawareness를 지적하고, 이를 개선한 ZSAD 방법론 Anomaly-Aware CLIP(AA-CLIP) 제안
    • Residual Adapter를 활용해 순차적으로 2단계 학습 진행
      • 정상과 비정상 semantic을 분명하게 구별하는 anomaly-aware text anchors 생성
      • patch-level visual feature와 text anchors 간 alignment 수행
    • Industrial / Medical 분야의 2-shot/16-shot/64-shot per class 및 full-shot setting에서 좋은 ZSAD 성능을 보임
  3. 발표자료 및 발표영상
    • 발표 자료 : 하단 첨부
    • 발표 영상
전체 18

  • 2025-05-09 16:30

    개인적으로 Zero-shot image anomaly detection task는 생소한 분야였는데, 본 세미나를 통해 조금이나마 알아볼 수 있어 좋았습니다. 또한 backgrounds 파트에서 Adapter 기반의 fine-tuning 방법론들을 설명해주셔서 개념 정리에도 도움이 되었습니다. 방법론 측면에서는 CLIP text encoder의 adaptation을 통해 text enchor를 구성하고, residual adapter를 도입하여 일반화 성능을 유지해 overfitting 가능성을 낮춘 것이 합리적이라고 느껴졌습니다. 특히 original CLIP에 비해 정상과 비정상의 semantic 차이를 보다 잘 구별할 수 있다는 점에서, AD 방법론으로서 유의미한 진보를 이루었다고 생각이 들었습니다. 좋은 발표 감사합니다.


  • 2025-05-12 17:00

    이번 세미나에서는 Zero-shot image anomaly detection이라는 다소 생소한 주제를 다루었지만, 발표를 통해 주요 개념과 접근 방식을 이해하는 데 큰 도움이 되었습니다. 특히 배경 설명에서 Adapter 기반 fine-tuning 기법들을 정리해 주셔서, 방법론에 대한 전반적인 이해가 한층 수월해졌습니다. 제안된 방식은 CLIP의 text encoder를 적절히 조정하여 anomaly를 구분할 수 있는 text anchor를 생성하고, residual adapter를 적용해 과적합을 방지하면서도 일반화 성능을 확보했다는 점에서 인상 깊었습니다. 기존 CLIP에 비해 정상·비정상 간의 의미론적 차이를 더욱 뚜렷하게 드러낸다는 점에서 anomaly detection 분야에 의미 있는 기여를 했다고 생각합니다. 흥미로운 발표 감사합니다.


  • 2025-05-12 21:56

    이번 세미나는 "AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP" 논문을 소개해주셨습니다. 작년만큼 zero-shot anomaly detection 논문이 활발하게 나오는 분위기는 아니기에 연구의 흐림이 벌써 바뀌었다 싶지만 올해 CVPR accept 된 논문이라 발표자님께서도 관심있게 다루어 주셨습니다. zero-shot anomaly detection에서는 vision-language model을 활용하는데, text encoder와 image encoder를 어떻게 anomaly detection을 위한 domain adaptation을 적용할 것인가에 많은 연구가 이루어져 왔습니다. 이번 AA-CLIP에서는 adapter 두 모달리티 encoder에 적용하고 two stage로 학습을 진행하여 기존 CLIP 모델의 일반화 능력을 보존하고 class 정보가 소실되지 않는 상태에서 정상과 비정상을 구분할 수 있도록 과적합을 방지하였습니다. 연구 내용에 있어서 two stage 과정이 어떤 이유로 과적합을 방지하는게 기여할 수 있었는지 정확히 이해하기는 어려웠으나 두 모달리티를 모두 target domain에 대해 adaptation을 수행하기 위해서는 이렇게 하는 것이 좋다~ 라는 연구를 보여주는 한 사례로 받아들였습니다. 좋은 발표 감사합니다.


  • 2025-05-13 20:03

    이번 세미나에서는 Zero-Shot 이상 탐지를 위해 CLIP 모델을 활용하는 ‘AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP’ 논문에 대해 발표해 주셨습니다. 해당 논문은 기존 CLIP 기반 ZSAD의 한계를 명확히 짚어내고, CLIP의 일반화 능력을 최대한 보존하면서도 anomaly discrimination 능력을 강화하고자 하였습니다. CLIP이 비정상 샘플을 일반적인 “normal” anchor에 더 가까이 매핑하는 문제점을 ‘Anomaly-Unawareness’로 정의하고, 이로 인해 anomaly detection에 실패하는 구조적 한계를 잘 짚어냈습니다. ‘Residual Adapter 기반 2단계 학습’ 방식을 통해 텍스트 인코더의 표현 공간을 먼저 disentangle하고, 이후 patch-level 시각적 feature를 정렬함으로써 semantic alignment를 개선한 점이 매우 인상깊었습니다. 또한, Text Anchor 간의 직교성 유지를 위한 Disentangle Loss 도입은 단순한 분류 정확도 향상을 넘어 semantic 구조를 보존하려는 시도로, 최근 PEFT 트렌드에 걸맞은 정교한 fine-tuning 접근이라고 생각합니다. 흥미로운 주제로 좋은 발표해 주셔서 감사합니다.


  • 2025-05-14 10:27

    이번 세미나에서는 AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP 논문을 통해 기존 CLIP 기반 Zero-Shot Anomaly Detection(ZSAD) 방식이 anomaly에 대해 명확한 인식 능력이 부족하다는 점에 착안하여, 이를 강화한 Anomaly-Aware CLIP 프레임워크 모델을 설명해주셨습니다. Residual Adapter를 활용한 두 단계 학습 구조를 도입해, CLIP의 사전 학습된 표현력을 유지하면서도 이상 감지 능력을 점진적으로 강화하는 과정과 클래스별 semantic을 분명히 구별할 수 있도록 설계된 text anchor와, patch-level 시각 특징 간 alignment을 통해 미세한 이상도 효과적으로 탐지할 수 있다는 점이 인상 깊었습니다. 잘 모르는 분야였지만 구조적인 부분부터 디테일하게 잘 설명해 주셔서 해당 분야에 대해 조금이나마 이해할 수 있게된 세미나였습니다. 좋은 발표에 감사드립니다.


  • 2025-05-14 10:38

    이번 세미나에서는 AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP 논문을 소개해주셨습니다. 해당 논문은 최근 zero-shot anomaly detection(ZSAD) 분야에서 vision-language 모델인 CLIP의 성능 향상을 목표로, 기존 CLIP 모델의 일반화 능력을 최대한 보존하면서 anomaly detection을 위한 domain adaptation을 효과적으로 수행하는 방법을 제안하였습니다. 특히, CLIP이 비정상 샘플을 정상 샘플과 비슷한 embedding 공간으로 매핑하는 Anomaly-Unawareness 문제를 명확하게 짚어내고, 이를 해결하기 위해 Residual Adapter 기반의 two-stage 학습 전략을 도입하여 text encoder와 image encoder 모두에서 target domain adaptation을 구현했습니다. 이 과정에서 텍스트 인코더의 표현 공간을 우선 disentangle하고, 이후 이미지 patch-level에서 semantic alignment를 정교화함으로써 과적합을 방지하고 클래스 정보의 손실 없이 정상과 비정상을 보다 효과적으로 구분할 수 있도록 하였습니다. 또한, Text Anchor 간 직교성을 유지하기 위해 Disentangle Loss를 적용한 점 역시 단순 성능 개선을 넘어 의미론적 구조를 보존하려는 세부적인 접근으로 인상 깊었습니다. 좋은 발표 감사합니다.


  • 2025-05-14 17:37

    금일 세미나는 zero-shot setting 하에서의 image anomaly detection 과업을 연구하는 AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP 논문을 바탕으로 진행되었습니다. 제안 연구에서는 먼저 zero-shot AD에서 일반적으로 사용하고 있는 CLIP 모델에 대한 분석으로 내용을 이어나가고 있습니다. CLIP의 텍스트 인코더는 object-level information은 효과적으로 포착하고 있으나, 정상 및 비정상 semantic을 구별하는데 어려움을 느끼는 경향이 있다고 말하고 있으며, 이러한 특성을 anomaly-unawareness라고 명명하고 있습니다. 즉, CLIP을 zero-shot AD에 사용하기 위해서는 anomaly-unawareness를 극복해야 하기에 이를 위한 adaptation을 필수적이라고 말해주고 있으나, 이는 새로운 데이터셋에 대해 과적합을 야기할 수 있는 문제점이 존재할 수 있습니다. 이를 위하여 텍스트/이미지 인코더 모두에서 K번째 shallow layer까지 residual adapter를 적용합니다. 이를 학습하기 위하여 2-stage의 학습 전략을 통해 anomaly-aware information을 CLIP에게 주입시키며, CLIP의 내재적인 일반화 능력은 보존하는 모습을 보이고 있습니다. 발표 자료를 잘 구성해주신 덕분에 수월하게 이해할 수 있었습니다. 좋은 발표 정말 감사드립니다.


  • 2025-05-14 18:15

    이번 세미나는 zeroshot anomaly detection을 주제로 진행되었습니다. 소개해주신 연구에서 CLIP의 텍스트 인코더가 정상과 비정상의 텍스트 간의 차이를 잘 구별하지 못하는 점을 지적하였습니다. 이를 해결하기 위해 adapter를 활용하였고 특히 residual adapter를 활용해 순차적으로 학습을 진행했습니다. 진행과정은 크게 두 가지로 anomaly-aware text anchor를 생성하여 정상과 비정상 semantic을 구별하도록 하고, patch-level visual feature와 text anchor간의 alignment를 수행합니다. 해당 문제는 사실 zero-shot anomaly detection에만 적용되는 것이 아니라 CLIP을 활용할 때는 모두 연관되어 있을 것으로 보입니다. 발표자님 말씀대로 문제를 명확히 정의하고 이에 집중하는 모습이 장점인 연구였던 것 같습니다. 좋은 발표 감사합니다.


  • 2025-05-14 20:54

    이번 세미나는 zero-shot anomaly detection(ZSAD) 문제에 대해 기존 CLIP 모델의 한계를 보완하는 방법을 제안한 “AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP” 논문으로 진행되었습니다. 발표에서는 CLIP이 정상 및 비정상 샘플 간의 구분에 어려움을 겪는 anomaly-unawareness 문제를 명확히 정의하고, 이를 해결하기 위한 Residual Adapter 기반의 two-stage domain adaptation 전략을 설명해주셨습니다. 특히 텍스트 인코더에서는 표현 공간의 disentanglement를 통해 클래스 간 구분성을 강화하고, 이후 이미지 인코더에서 patch-level semantic alignment를 수행함으로써 전반적인 표현의 anomaly-awareness를 높이고자 한 점이 인상 깊었습니다. Disentangle Loss를 통해 텍스트 앵커 간의 직교성을 유지하려는 세부적인 설계도 모델의 일반화 성능과 구조적 해석 가능성을 함께 고려한 훌륭한 시도라고 느꼈습니다. 발표 내용을 통해 기존 CLIP 기반 방법의 한계와 AA-CLIP의 기여를 명확히 이해할 수 있었습니다. 발표 준비해주셔서 감사합니다.


  • 2025-05-16 16:31

    이번 세미나는 ZSAD 분야에 적합한 adapter 이용 학습 방식을 제안한 “AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP”을 중심으로 진행되었습니다. ZSAD는 이상치 분류를 대상으로 하는 데이터에 접근하지 않은 상태에서 학습하게 되므로, 학습 과정에서 일반화 능력을 확보하는 것이 매우 중요합니다. 이에 대해 본 논문에서는 CLIP의 두 인코더 모두 초기 레이어들에 대해 residual adapter를 적용하고, adapter의 output을 기존 output과 가중합하는 방식으로 이상치 탐지 능력과 일반화 능력 모두 보존하는 방식을 제안합니다. 또한, loss 관점에서도 일반화된 이상치 탐지를 위해 기존 연구들에서 많이 활용되던 classification, segmentation loss를 함께 활용하는 모습을 보이고 있습니다. 논문에서 주장하는 anomaly-unawareness 문제에 대해서는 공감하는 바이지만, 실제 모델 구조나 학습 과정이 이를 해결한 방식이 자세히 언급되지 않아 다소 아쉬운 연구였던 것 같습니다. 좋은 발표 감사드립니다.


  • 2025-05-17 23:15

    이번 세미나에서는 CLIP의 Anomaly-Unawareness 문제를 지적하고 이를 개선한 AA-CLIP 논문을 소개해주셨습니다. 해당 논문은 Residual Adapter 기반의 two-stage 학습 전략을 통해 기존 CLIP의 일반화 능력을 유지하면서도 anomaly detection을 위한 효과적인 domain adaptation을 수행한 점이 인상 깊었습니다. 특히 텍스트 인코더에서 anomaly-aware text anchors를 생성하고, 이후 patch-level 시각 정보와의 정렬을 통해 비정상 영역을 정밀하게 구분해낸 점에서 기술적 정교함이 느껴졌습니다. ZSAD 성능 향상을 위해 의미론적 구조를 보존하면서도 과적합을 방지하려는 세심한 접근이 돋보였고, 실제 산업 및 의료 분야에의 적용 가능성도 높다고 느껴졌습니다. 좋은 발표 감사합니다!


  • 2025-05-20 04:15

    이번 세미나에서는 Zero-Shot Anomaly Detection의 성능 한계를 극복하기 위해 제안된 AA-CLIP 논문을 중심으로, CLIP 모델의 구조적 한계와 이를 보완하기 위한 적응 전략에 대해서 소개해 주셨습니다. 특히 기존 CLIP이 비정상 샘플에 대해 '정상성' 기준에 과도하게 수렴하는 anomaly-unawareness 문제를 명확히 정의하고, 이를 해결하기 위해 residual adapter를 양 모달리티에 적용한 two-stage 학습 구조가 인상 깊었습니다. 텍스트 인코더의 표현 공간을 disentangle하고, 이후 이미지 인코더에서 patch-level 정렬을 수행하는 방식은 semantic alignment 측면에서 매우 설득력 있는 접근이라 느껴졌습니다. 또한, text anchor 간 직교성을 유지하기 위한 disentangle loss의 도입 역시 일반화와 구조적 해석 가능성 모두를 고려한 정교한 설계로 보입니다. 발표를 통해 ZSAD 분야의 최근 동향과 함께 adapter 기반 fine-tuning 방식의 응용 가능성까지 폭넓게 이해할 수 있었습니다. 좋은 발표 감사합니다!


  • 2025-05-21 23:03

    이번 세미나에서는 "AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP"논문을 소개해주셨습니다. 발표를 통해 CLIP 기반 Zero-Shot Anomaly Detection(ZSAD)의 한계를 명확히 짚고, 이를 효과적으로 개선한 접근 방식을 잘 이해할 수 있었습니다. 특히 CLIP의 Anomaly Unawareness 문제를 논리적으로 분석하고, Residual Adapter 기반 2단계 학습 전략을 통해 semantic 수준에서 anomaly-aware한 텍스트 앵커를 형성한 점이 인상 깊었습니다. 실험적으로도 다양한 industrial/medical 데이터셋에서 2-shot과 같은 극단적인 소량 학습 상황에서도 안정적인 성능을 보였다는 점은 ZSAD의 실제 응용 가능성을 보여줬다고 생각합니다. 또한 Disentangle Loss를 통한 텍스트 앵커 간 구분도 향상 방식도 의미 있었던 것 같습니다. 좋은 논문 소개해주셔서 감사합니다!


  • 2025-05-22 12:26

    이번 세미나에서는 "AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP" 라는 논문에 대한 소개를 중심으로 진행되었습니다. 이 연구는 기존 CLIP 모델이 가진 '이상 비인식성(Anomaly-Unawareness)'이라는 근본적 한계를 명확하게 식별하고 이를 해결하기 위한 방법론을 제시한 점이 매우 인상적이었습니다. 특히 CLIP의 강력한 일반화 능력은 유지하면서도 이상 감지 능력을 강화하는 방향으로 접근한 균형 잡힌 시도가 의미있었습니다. 저자는 두 단계 학습 전략을 통해 이 문제를 해결했는데, 첫 번째 단계에서는 Residual Adapter와 Disentangle Loss를 활용해 정상과 비정상 의미를 명확히 구분하는 텍스트 앵커를 생성하고, 두 번째 단계에서는 시각적 특성과 앵커 간의 정렬을 개선하는 방식으로 구현하였습니다. 특히 Disentangle Loss를 통해 정상과 이상 앵커 간의 직교성을 유지해 의미적 분리를 강화한 아이디어가 인상적이었습니다. 세미나를 통해 특히 인상 깊었던 점은 단순히 새로운 모델을 제안하는데 그치지 않고, 기존 CLIP 모델이 가진 구조적 문제를 명확히 분석하고 그 해결책을 체계적으로 모색했다는 점입니다. 또한 전체 모델을 재학습하지 않고 Residual Adapter를 활용해 효율적으로 모델을 개선한 것은 계산 자원이 제한적인 환경에서도 활용 가능한 실용적인 접근법이라고 생각합니다. 좋은 발표 준비해주셔서 감사합니다.


  • 2025-05-23 01:11

    이번 세미나에서는 Zero-Shot Anomaly Detection(ZSAD)의 성능을 향상시키기 위해 CLIP 모델을 변형한 방법론인 AA-CLIP을 중심으로 진행되었습니다. 기존 CLIP은 anomaly-aware하지 못하여 정상과 비정상 semantic을 효과적으로 구별하지 못하는 문제가 있었고, 이를 해결하기 위해 Residual Adapter를 텍스트와 이미지 인코더에 삽입하여 정상/비정상 anchor 간 alignment를 강화하였습니다. 본 방식은 CLIP의 일반화 성능을 유지하면서도 비정상 탐지 능력을 크게 높였으며, 특히 산업 및 의료 데이터셋의 다양한 few-shot setting에서 우수한 성능을 보이며 Zero-Shot 환경에서도 anomaly discrimination이 가능함을 보여주었습니다.


  • 2025-05-24 16:35

    이번 세미나에서는 CLIP의 anomaly-unawareness 문제를 극복하기 위해 residual adapter 기반의 two-stage 학습을 도입한 AA-CLIP 논문을 다루었습니다. 발표를 통해 기존 CLIP이 정상과 비정상 샘플을 구분하는 데 한계를 가진다는 점을 명확히 이해할 수 있었고, 텍스트 인코더의 표현 공간을 disentangle한 뒤 patch-level 정렬로 semantic alignment를 개선하는 방식이 매우 인상 깊었습니다. 특히 텍스트 앵커 간 직교성을 유지하는 Disentangle Loss의 도입은 단순 성능 향상을 넘어 구조적 해석 가능성을 높였다고 생각합니다. 발표를 통해 Zero-Shot Anomaly Detection 분야의 최근 연구 흐름을 잘 파악할 수 있었습니다. 좋은 발표 감사합니다.


  • 2025-05-19 16:43

    이번 세미나에서는 “AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP” 논문을 중심으로, 기존 CLIP 모델의 구조적 한계인 anomaly-unawareness 문제를 분석하고 이를 해결하기 위한 방법론을 소개해주셨습니다. 특히 CLIP의 일반화 능력을 유지하면서도 이상 감지 능력을 강화하려는 접근이 인상적이었습니다. 논문은 Residual Adapter와 Disentangle Loss를 활용한 two-stage 학습 전략을 통해, 텍스트 인코더에서 정상/비정상 의미를 분리하고, 이미지 인코더에서는 patch-level 정렬을 강화하는 구조를 제안합니다. 특히 Disentangle Loss를 통해 텍스트 앵커 간의 직교성을 유지하여 표현 공간을 명확히 구분한 점은 의미 해석과 일반화 모두를 고려한 정교한 설계로 보였습니다. 또한 전체 CLIP 모델을 재학습하지 않고, Adapter 기반 경량 조정 방식으로 효율성을 확보한 점도 실용적인 강점이었습니다. 발표를 통해 Zero-Shot Anomaly Detection(ZSAD) 분야의 최근 흐름과 함께, 구조적 fine-tuning의 가능성까지 폭넓게 이해할 수 있었습니다. 좋은 발표 감사합니다!


  • 2025-05-20 16:43

    이번 세미나에서는 AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP 논문을 중심으로, 사전 학습된 CLIP 모델을 활용한 제로샷 이상 탐지 성능 향상 방안을 소개해주셨습니다. 이 연구는 CLIP의 일반화 능력을 유지하면서도 이상 탐지에 특화된 기능을 강화하는 두 단계 접근 방식을 제안하였습니다.
    첫 번째 단계에서는 '이상 인식 텍스트 앵커(anomaly-aware text anchors)'를 생성하여 정상과 비정상 개념을 명확히 구분합니다. 두 번째 단계에서는 이미지의 패치 수준 시각 특징을 이러한 텍스트 앵커와 정렬시켜 이상 영역을 정밀하게 국지화합니다. 특히, 잔차 어댑터(residual adapters)를 활용하여 CLIP의 기존 지식을 보존하면서도 점진적으로 이상 탐지 능력을 향상시키는 점이 인상적이었습니다.
    이번 발표를 통해 CLIP 기반 제로샷 이상 탐지의 한계를 극복하고, 산업 및 의료 분야에서의 실제 적용 가능성을 높이는 방법에 대한 깊은 통찰을 얻을 수 있었습니다. 좋은 발표 감사합니다!


전체 515
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 11394
관리자 2020.03.12 0 11394
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 10032
관리자 2020.03.12 0 10032
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 11105
관리자 2020.03.12 0 11105
512
[Paper Review] TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment (2)
Sieon Park | 2025.07.14 | 추천 0 | 조회 39
Sieon Park 2025.07.14 0 39
511
[Paper Review] Exploring Intrinsic Normal Prototypes within a Single Image for Universal Anomaly Detection (2)
Subeen Cha | 2025.07.10 | 추천 0 | 조회 66
Subeen Cha 2025.07.10 0 66
510
[Paper Review] Theory of Everything (About Sequence Modeling with DL Models…) (14)
Jaewon Cheon | 2025.06.27 | 추천 0 | 조회 239
Jaewon Cheon 2025.06.27 0 239
509
[Paper Review] Evaluation of Multilingual Image Captioning: How far can we get with CLIP models? (16)
Minjeong Ma | 2025.06.07 | 추천 0 | 조회 344
Minjeong Ma 2025.06.07 0 344
508
비밀글 [Rehearsal] 석사학위 논문심사 - 마민정 (19)
Minjeong Ma | 2025.06.02 | 추천 0 | 조회 38
Minjeong Ma 2025.06.02 0 38
507
비밀글 [Rehearsal] 석사학위 논문심사 - 정기윤 (20)
Kiyoon Jeong | 2025.06.02 | 추천 0 | 조회 35
Kiyoon Jeong 2025.06.02 0 35
506
비밀글 [Rehearsal] 석사학위 논문심사 - 남웅찬 (19)
Woongchan Nam | 2025.06.02 | 추천 0 | 조회 33
Woongchan Nam 2025.06.02 0 33
505
비밀글 [Rehearsal] 석사학위 논문심사 - 이상민 (21)
SangMin Lee | 2025.06.02 | 추천 0 | 조회 35
SangMin Lee 2025.06.02 0 35
504
[Paper Review] Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems (14)
Siyul Sung | 2025.05.31 | 추천 0 | 조회 434
Siyul Sung 2025.05.31 0 434
503
[Paper Review] Restructuring Vector Quantization with the Rotation Trick (16)
Woojun Lee | 2025.05.20 | 추천 0 | 조회 374
Woojun Lee 2025.05.20 0 374

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 허재혁 : jaehyuk.heo@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호