[Paper Review] Patch SVDD: Patch-level SVDD for Anomaly Detection and Segmentation

Paper Review
작성자
Yunseung Lee
작성일
2021-07-30 13:16
조회
2898
1. Topic
Patch 단위의 이미지로 Anomaly Detection과 Segmentation 수행

2. Overview
현재 Patch SVDD는 MVTec-AD benchmark 데이터셋에 대해서 Rank #11을 기록하고 있으며, 보다 상위 등수의 논문들은 Patch SVDD를 baseline으로 성능향상을 진행하고 있습니다.

본 논문에 대해 보다 자세히 설명드리자면, 이미지를 patch 단위로 임베딩하고, 변형된 Deep SVDD로 학습한 encoder를 거쳐, anomaly detection 및 anomaly segmentation을 수행하는 방법론입니다.

이러한 과정을 수행하며 이미지 내 patch 간 위치관계를 반영하기 위해 patch의 위치를 분류해내는 Self-Supervised Learning(SSL) loss를 Deep SVDD loss에 추가하여 학습을 진행합니다. 또한, Patch representation을 잘 표현하기 위해 hierarchical encoding을 활용합니다.

또한, test 이미지에 대해 anomaly map을 생성하는 방법에 대해서도 자세히 설명합니다.

3. 참고자료
[1] 발표자료
[2] ">발표영상
전체 17

  • 2021-08-14 18:53

    이번 세미나에서는 이미지를 anomaly detection task에 적용한 논문 "Patch SVDD: Patch-level SVDD for Anomaly Detection and Segmentation"에 대해 소개해 주셨습니다. 기존의 Deep SVDD가 단순한 이미지에 대해서는 적용이 잘 되지만 복잡한 이미지에서는 탐지 성능이 떨어진다는 것과 single center로 임베딩을 모이게 한다는 특성을 극복하고자 제안된 본 논문의 방법론은 patch 단위로 이미지를 쪼개어 두가지의 목적을 갖는 loss로 학습시키게 됩니다. 첫번째는 근접 위치, 즉 유사한 의미를 갖는 patch 간에는 임베딩 거리가 가깝도록 하며 두번째는 unlabeled 방식의 ssl로 두개의 패치가 갖는 상대적 위치를 classify 하도록 합니다. Anomaly score를 산출하는 방식은 정상 데이터의 이미지 임베딩을 위 두 loss로 효과적으로 수행한 뒤에 anomaly가 들어올 경우 embedding 간 차이값(L2)이 커지는 것을 이용하는데, 이미지 전체를 이용하는 deep SVDD에 비해 patch 단위의 임베딩 학습으로 부분의 위치를 잘 학습하므로 anomaly map이 잘 그려지는 것 같습니다. 다만 ssl loss가 거의 임베딩 학습에 대부분의 영향을 발휘하는 것 같은데, patch의 위치를 학습하는 방식이 결국 patch 간 임베딩을 효과적으로 수행하게 하는 것 같습니다. 좋은 발표 감사합니다.


  • 2021-08-15 18:06

    이번세미나에서는 patch svdd 를 통한 anomaly detection 을 수행하는 논문을 주제로 발표했습니다. 이미지를 patch 단위로 임베딩하는 점은 VIT 의 아이디어와 상당히 유사하다고 생각합니다. 이를 Deep SVDD 로 학습한 인코더를 통해 Anomaly detection 을 수행하게 되는데, SVDD 가 가지는 이상치탐지, 그리고 이미지의 이상치를 학습하기 위해 VIT 를 함께 엮은것이 아닌가 생각했습니다. 위 과정을 위해 SSL 을 LOSS 에 추가하였습니다. patch의 거리가 가까운것 끼리 당연히 유사하게 임베딩되록 하는것은 graph 에서 pixel 단위로 이미지를 인코딩하는것과 상당히 유사하며, 최근 연구들에서 transformer 가 결국 graph와 유사함을 나타낸다고 나오는데, 거리를 정의하는 부분에 좀 더 집중하면 아마도 더 좋은 연구가 될 것 같습니다.


  • 2021-08-16 01:32

    이번 세미나는 anomaly detection 논문에 대해 다루었습니다. 특히 이상치 데이터가 정상 데이터와 매우 유사한 MVTec-AD benchmark를 활용했다는 점에서 어떤 방식의 모델을 제안했을지 궁금했습니다. 논문에서 제안한 방법론의 핵심은 patch 단위의 임베딩이였는데 같은 이미지내에서 가까운 거리에 위치한 patch들을 SVDD를 활용해 임베딩 함으로써 MVTec-AD benchmark 데이터 셋에 대해서도 잘 작동했다고 이해하였습니다. 각 내용들에 대해서 잘 정리해주셔서 이해하기 수월한 발표였습니다. 좋은 발표 감사드립니다.


  • 2021-08-16 19:20

    이번 세미나는 이미지 상에서 이상치를 self-supervised 방식으로 수행하기 위한 Patch SVDD: Patch-level SVDD for Anomaly Detection and Segmentation 모델에 대한 세미나였습니다. 이는 이미지 내 가까운 거리의 patch embedding이 유사해지도록 하므로서 이미지의 feature들을 임베딩하고, 이미지를 patch 단위로 나눈 것을 하나의 입력값으로 두어 가존의 SVDD와 달리 정상 데이터를 표현하는 초구를 이루지 않는다는 특징이 있습니다. 따라서 해당 모델에서는 multi center를 주장하며, 복잡한 이미지에서도 이상치의 위치를 더욱 잘 찾고자 하였습니다. 이미지 상에서 이상치 탐지를 할 때 SVDD 방법론을 사용하는 것이 흥미로웠습니다. 이미지 상에서 거리를 기반으로 멀고 가깝고를 넘어, object 와 background에 대해서, 서로다른 object끼리에 대해서 더욱 잘 구별해 낼 수 있으면 더 좋은 모델일 것 같습니다. 좋은 발표 감사합니다.


  • 2021-07-30 13:34

    오늘 세미나에서 다뤄 주신 내용은 "Patch SVDD: Patch-level SVDD for Anomaly Detection and Segmentation"라는 논문입니다. Patch SVDD는 이름에서도 알 수 있듯이 기존 SVDD에 Patch를 접목 시킨 방법론으로 Anomaly Detection 뿐만 아니라 Segmentation에도 좋은 성능을 보인다고 합니다. Patch SVDD는 아래 3가지를 통해 rich한 representation을 학습하고 이를 정상 패치들과의 차이(L2 Dist.)를 통해 anomaly detection을 수행할 수 있도록 설계하였습니다.

    ① Deep SVDD 변형한 Patch-wise SVDD : 이미지 내 임의의 좌표 p1 생성 후 거리가 가까운 좌표 p2 추출하여 pair 구성하여 각 pair간 embedding이 유사하게 학습될 수 있도록 하였습니다
    ② Relative Patch Location Prediction : 임의의 patch를 설정하고, 주변 8개 patch 중 하나를 랜덤하게 골라서 위치를 맞추는 pretext task 수행하여 encoder가 feature extractor로서의 기능이 더 수행될 수 있도록 하였습니다.
    ③ Hierarchical Encoding : 추출한 patch를 2x2 grid로 나누고, 각각을 f_small을 통해 임베딩 후 다시 concatenate하고, 이를 위에서 구한 embedding을 f_big를 통해 한번 더 임배딩해줌으로써 크기가 다른 anomaly들을 보다 잘 찾아낼 수 있도록 하였습니다.

    Test 시에는 Anomaly Map을 구축해서 사용을 하게 되는 데 앞에서 학습된 f를 이용하여 각각 test와 train 데이터의 embedding을 뽑고, test embedding과 유사한 train embedding과 가장 유사한 뽑고, 그 차이를 구하여 Anomaly Map을 구성하게 됩니다. 시각적인 자료가 충분하여 이해하기 너무 좋은 발표였습니다. 좋은 발표 감사합니다.


  • 2021-07-30 16:18

    이번세미나에서는 Patch SVDD에 대해서 발표해 주셨습니다. 해당 논문은 segmentation기반의 anomaly detection방법론으로 SVDD기반의 아이디어를 사용하고 있습니다.
    제안방법론은 patch 기반으로 anomaly detection을 하는 방식으로 이뤄졌습니다. 이미지 패치간 서로 가까운 것들은 가깝게 상대적으로 먼 것은 더 멀리 임베딩하는 것을 목적함수로 가집니다. 따라서 이미지 패치의 좌표차이를 계산하여 이 값을 산출하였습니다. Loss function은 SVDD loss와, SSL loss로 이루어져 있는데 1) SVDD loss는 이미지 patch에 대한 context 차이를 계산하게 되고, 2) SSL loss는 patch 좌표에 대한 차이로 이루어져 있었습니다. 두개의 서로 다른 patch size를 고려해서 다양한 receptive field를 보도록 각기 다른 network에 대해 서로 다른 목적함수를 설정하였습니다. 좋은 발표 감사합니다.


  • 2021-07-31 12:05

    오늘 세미나는 Patch SVDD: Patch-level SVDD for Anomaly Detection and Segmentation을 주제로 진행되었습니다. 먼저 전체 이미지를 특정 사이즈로 자른 작은 이미지 영역을 patch라 정의하며, 해당 논문에서는 거리가 가까운 것 끼리 유사한 임베딩을 가질 수 있게 학습합니다. 이렇게 하는 이유는 patch간 high intra variance 때문인데, 정상데이터라도 유사하지 않을 수 있기 때문에 정상 내에서 multi center를 가정합니다. anomaly detection이 어려워지는 이유중 하나는 정상 class의 semantic을 고려하지 않고 하나의 클래스로 학습하기 때문입니다. 따라서 content 기반의 방법으로 문제를 풀이하고자 한 시도는 합리적이라 느껴졌습니다.

    하지만 introduction과 달리, 해당 방법은 SVDD로 보기 어려우며, 랜덤하게 pair간 임베딩 차이를 최소화 하는 방법이라 생각됩니다. 특히 center가 고정되어 있지 않기때문에 center 역할을 하는 값이 매번 바뀌며 hypersphere를 생성하지 못합니다. 또한 실제로 결과값에서도 람다를 작게 주었을때 성능이 향상된것을 보면 SSL LOSS가 성능향상에 가장 큰 영향을 준 것이라 생각되어 아쉬웠습니다.

    다만 논문에서 제안한 아이디어는 추후 연구에서 잘 활용될 수 있을거라 생각합니다. 좋은 발표 감사하며 고안중이신 개인연구도 좋은 결과 기대하겠습니다 🙂


  • 2021-07-31 15:35

    본 세미나는 Deep-SVD를 통한 Anomaly Detection을 전체 이미지에 대하여 진행하는 것이 아닌, Patch 단위로 진행하여 Anomaly Detection에 더불어 Anomaly Segmentation까지 달성하는 방법입니다. 즉, 전체 이미지 Representation보다 더 세밀한 패치로 더 좋은 표상을 구성하고, 정상 패치들 중 가장 유사한 것과의 L2 Distance를 통해 이상치를 탐지합니다. Patch-wise로 이미지의 Embedding을 구성하는 이유는 복잡한 이미지에서는 Anomaly의 '위치'를 탐지할 수 없는 문제점을 해결하는 것에 더불어, Patch 단위는 주변 8개의 랜덤의 위치를 맞추는 과정을 통해 Encoder의 Feature Extractor로서의 기능을 더 잘 수행하기 위함입니다. 이는 확실히 큰 이미지를 활용했을 때보다 같은 양의 데이터로 Data Augmentation을 수행하는 것이기에 성능이 증가하는 면도 있을 것이라 생각합니다. 즉, Anomaly Detection에 있어 Deep SVDD에 Patch 단위로 데이터를 분할하는 Augmentation, Location Prediction, Hierarchical Encoding과 같이 다양한 전략들을 통해 더 좋은 표상을 취해 성능을 향상 시킨다고 할 수 있습니다. Anomaly detection의 기저가 되는 논문에 대한 발표 잘 들었으며 감사합니다.


  • 2021-07-31 22:46

    몇 가지 궁금증이 생기는 논문이었습니다. 우선 저자들은 SVDD 라는 이름을 따왔으나 patch SVDD에서 사용한 loss term은 SVDD와 핵심이 많이 달라 보였습니다. 또한 본 논문에서 제안하는 SVDD loss를 이미지의 모든 패치에 적용하면 결국 이미지에 등장하는 모든 패치가 같은 지점으로 모이는 것이 아닌가? 라는 생각이 들었습니다. 이에 이미지에서 패치를 뽑는 횟수와 위치가 결과에 매우 크게 영향을 미치지 않을까 라는 생각이 들었습니다. 이 부분이 잘 뽑히고 나면 저자들의 주장대로 한 장의 이미지에서 여러 패치들이 multi center를 가지게 되는 것은 합리적이라 생각합니다. 하지만 논문에서 보여주는 실험 결과를 보더라도 제안하는 SVDD loss로 학습한 모델의 feature space는 multi center가 존재한다고 보기 어려웠으며 SVDD와 SSL을 함께 사용(논문의 최종 제안 loss)한 경우에 좋은 성능을 보이고 있습니다. 이런 결과를 보고 SSL을 사용하는 경우에 어떤 이유로 multi class를 가지고, inter-class variance는 크고 intra-class variance는 작은 hyper space가 형성 되는지 궁금했습니다. 많은 생각할 거리를 주는 논문인 것 같습니다. 재밌는 논문 소개해 주셔서 감사합니다.


  • 2021-08-01 18:04

    오늘 세미나에서는 Patch-Level로 Anomaly Detection을 수행하는 Model에 대해 소개해 주셨습니다. 우선적으로 Input Image를 Patch 단위로 분할한 뒤, 거리가 가까운 Patch는 Representation Space상에서 가깝게, 거리가 먼 Patch는 Representation Space상에서 멀게 표상될 수 있도록 Loss를 부과하여 학습을 수행합니다. 인접한 Patch의 경우에는 Patch 내의 Pixel이 겹치는 부분이 많기에, 가까이 위치한 Patch를 유사하게 학습하는 과정을 통해 이상치 Patch가 입력으로 들어올 경우 탐지하는 능력을 기를 수 있다고 이해했습니다. 동시에 임의의 Patch에 대해 주변 Patch의 위치를 맞힐 수 있도록 Loss를 부과하여 Encoder가 Patch Extracting을 잘 수행할 수 있도록 합니다. 아직까지 Vision 분야에 대해 모르는 것이 더 많지만, 개인적인 생각으로는 인접한 Patch가 많은 Pixel을 공유한다는 가정이 특정한 객체의 경계면에서는 잘 성립하지 않을 것 같다는 생각이 들었습니다. 향후 어떠한 후속 연구들이 등장할 지 지켜보고 싶습니다. 좋은 발표 감사합니다.


  • 2021-08-02 17:06

    금일 세미나 주제는 Patch SVDD 입니다. SVDD는 고차원상의 feature space에서 정상 hyper-sphere 를 넘어가는 데이터를 이상치로 보는 것입니다. patch svdd는 크게 이미지를 패치 단위로 쪼개 임베딩을 하고, 이상치의 representation과 비교하여 이상치 부분을 발견하는데, patch-wise deep svdd는 convolutional autoencoder를 통해 이미지 내 가까운 거리의 patch들의 embedding이 유사해지도록 학습합니다. 유사한 patch pair는 이미지 내 임의의 점과, 그 점에서 가까운 좌표를 추출하여 생성하게 됩니다. 그리고 기존 svdd가 정상 데이터를 감싸는 초구를 찾는 것과 달리, patch-wise deep svdd는 패치 간의 high intra-class variance를 고려하여 multiple center를 찾는 것을 목적으로 합니다. 그리고 학습시에 Self-supervised Learning이 사용되는데, 이미지 내의 patch pair 간에 상대적 위치를 예측하도록 하여 feature extractor로서의 역할을 보다 잘 할 수 있도록 학습합니다. 또한 Hierarchical Encoding을 통해 다양한 receptive field를 주어 encoding을 진행해 feature를 추출하고 loss를 구성하여 학습합니다. 이렇게 학습된 모델을 가지고 train과 test 데이터에 대해서 embedding map을 추출하고 train과 test 간의 유사한 embedding을 탐색합니다. 이렇게 추출된 embedding들 간의 차이를 l2 map으로 지정하고 decoding과 비슷한 과정을 통해 원본 이미지의 크기로 확장하여 anomaly map을 구성합니다. patch-wise svdd에 대해서 처음 접했는데 그림과 함께 쉽게 설명해주셔서 이해가 잘 되었습니다. 개인적으로는 hierarchical encoding을 통해 loss를 구성하는 부분이 재미있었습니다 좋은 발표 감사합니다.


  • 2021-08-02 19:56

    금일 세미나는 "Patch SVDD: Patch-level SVDD for Anomaly Detection and Segmentation"라는 주제로 진행되었습니다. 본 발표에서는 Patch 단위의 이미지로 Anomaly Detection과 Segmentation을 수행한 Patch SVDD가 소개되었습니다. 개인적으로는 최근에 image-based anomaly detection 관련 논문들을 세미나에서 발표한 적이 있기 때문에 관심을 가지고 발표를 청취했습니다. 제안된 방법론은 이미지를 patch 단위로 임베딩하고 변형된 Deep SVDD로 학습한 encoder를 거쳐 anomaly detection 및 anomaly segmentation을 수행하는데 이상치 탐지에서 이미지를 patch 단위로 사용했다는 점과 anomaly segmentation을 통해 설명력을 가진다는 점이 contribution이라고 생각합니다. 해당 모델에서 이미지 내 patch 간 위치 관계를 반영하기 위해 patch의 위치를 분류해내는 Self-Supervised Learning loss를 Deep SVDD loss에 추가하여 학습을 진행하는데 이 부분을 통해 성능이 크게 향상한 점을 통해 해당 방법이 feature representation에 좋은 영향을 미친다는 점을 알 수 있어 좋았습니다. 개인적으로 self-supervised learning을 적용한 이상치 탐지를 연구하고 있는데 이것의 효과를 알게되어 좋은 시간이었습니다. 더불어 Patch representation을 잘 표현하기 위해 hierarchical encoding을 활용하는 부분에서도 anomaly detection에서 representation이 매우 중요하다는 생각이 들었습니다. 다만, patch를 사용한 목적이 multi center를 생성하기 위함이라고 발표 초반에 언급되었는데, 실험 결과에서 이것의 효과를 확인할만한 결과가 없었던 것 같아 아쉬웠습니다. 좋은 발표 감사합니다.


  • 2021-08-03 01:27

    본 논문에서는 anomaly detection과 함께 상대적으로 더 어려운 task인 anomaly segmentation을 소개하였습니다. Anomaly segmentation의 경우 모델의 결과를 설명할 수 있는 방향으로 연구할 가치가 높은 task라 느꼈습니다. 소개해주신 patch svdd는 이미지를 patch 단위로 나누어 CAE로 임베딩을 수행하고, 임베딩 간의 유사성을 계산합니다. 기존 svdd와 달리 이미지의 여러 부분이 다른 특성을 갖는데 단 하나의 center만을 사용하는 것에 의문을 제기하고 여러 개의 center를 구성하는 방식으로 문제를 재정의한 것이 인상깊었습니다. 의사코드를 보면 detection과 segmentation을 동시에 반환하는 것 같은데, 좋은 성능과 반비례하는 속도에 관한 이슈가 있는지도 궁금하였습니다. 재미있는 발표 잘 들었습니다.


  • 2021-08-03 01:59

    금일 세미나는 Anomaly detection 관련 방법론인 Patch SVDD 모델 연구를 중심으로 진행되었습니다. 본 모델인 Patch SVDD는 지난 최희정 박사과정 연구원님의 발표에서 확인했던 Deep SVDD의 변형 모델로서 연장선상에서 이해할 수 있었습니다. PatchSVDD 의 핵심은 발표자께서 서두에 지목해주셨듯, 보다 풍부한 Representation을 학습해 이상치 탐지에서 효과를 보는 것 입니다. 이를 위해, 본 모델은 이미지를 Patch 단위로 쪼개는 접근을 시도합니다. 이를 통해 비슷한 위치의 Patch들이 서로 유사하게 임베딩 되도록 학습시키는 것 입니다. 이렇게 하면, 복잡한 이미지에서 더욱 효과를 볼 수 있습니다. 이미지를 세부 단위로 쪼개 더욱 자세하게 분절해 임베딩 시키기 때문에, 복잡하더라도 더 세밀하게 임베딩되기 때문입니다. 이를 통해, 임베딩 단계에서 이미지 자체의 다양한 중심점(multi center)들을 포착해낼 수 있을 것 입니다. 그리고 이렇게 얻어낸 다양한 중심점들 간의 관계를 학습시키기 위해 SSL접근으로 일종의 patch 맞추기(pretext task) 학습을 진행합니다. 이는 일종의 BERT의 MLM 과 유사한 역할을 한다고 느꼈습니다. 역시나 임베딩에서 상호 관계성을 학습하는 데 대표적인 훈련 task가 MLM 계열이라는 것을 생각하게 되었습니다. 여기에 더해 Patch를 다시 분절해 인코딩을 진행하는 계층적 인코딩 방법도 전개하게 됩니다. 결국 이를 통해 얻고자 하는 것은 역시나 다양한 receptive field를 구성하는 것일 것입니다. 발표자께서 이러한 학습과정과 최종적인 anomaly map 생성까지의 과정을 매 step 마다 매우 자세하게 설명해주셔서 더욱 잘 이해할 수 있었습니다. 발표 준비에 쉽지 않으신 과정이셨을 텐데, 발표자분의 청자에 대한 배려심을 느낄 수 있었습니다. 다시 한 번 좋은 발표 감사드립니다.


  • 2021-08-03 16:58

    오늘 세미나에서는 Anomaly Dection의 성능을 향상시키기 위해 Self-supervised 방법론을 적용한 "Patch SVDD: Patch-level SVDD for Anomaly Detection and Segmentation" 논문을 소개해 주셨습니다. 해당 방법론은 기존 SVDD 방법론에 Self-supervised 방법론을 추가로 적용하여 SVDD의 성능을 향상시키는 방법을 제안합니다. 요약하면 이미지 내 Patch들을 생성하고 서로 거리가 가까운 patch들 끼리 유사하게 임베딩 되도록 학습하는 방법론 입니다. 또한 크기가 다른 anomaly들을 잘 찾아내기 위하여 다양한 receptive field로 인코딩하는 Hierarchical Encoding 방법론도 함께 적용합니다. 이미지 분야에서 Self-supervised 방법론을 적용하여 성능을 향상시킨 사례들을 많이 보았지만 Anomaly Detection에 적용한 사례는 처음이어서 흥미로웠습니다. 최근 Unlabeled 데이터를 활용하여 Self-supervised 방법론을 적용한 모델들이 많은 분야에서 좋은 성능을 보이고 있는데 이는 Labeled 데이터를 많이 수집할 수 없는 Anomaly Detection 분야에서 더 좋은 성과가 있을 것 같습니다. 좋은 발표 감사합니다.


  • 2021-08-03 18:06

    오늘 세미나에서는 최근 image anomaly detection에서 좋은 성능을 보이고 있는 patch-based anomaly detection 방법 중 하나인 Patch SVDD를 소개해주셨습니다. patch-wise deep SVDD는 이미지 내의 가까운 거리에 위치한 patch들을 feature space 상에서 가깝게 위치하도록 embedding합니다. 정상 data를 가깝게 위치하도록 하는 기존의 SVDD와 달리 이러한 방법을 사용하는 이유는, 정상 data의 경우에도 각 patch마다 유사하지 않을 수 있기 때문입니다. 또한 semi-supervised learning을 적용합니다. pretext task에 대해 학습하여 encoder가 feature를 더 잘 extract하게 하는 방법을 사용하였습니다. 학습을 위해서는 각 patch에 대해 변형된 SVDD loss와 semi-supervised loss를 더한 값을 loss로 사용합니다. SSL을 적용하였을 때, 그렇지 않았을 때보다 embedding 결과가 normal과 abnormal을 잘 구분하도록 학습된 것을 확인하였습니다. 최근 추가적인 task 학습을 통해, embedding space에서 example들의 거리에 대한 loss를 train loss와 결합하는 방식들이 많이 연구되고 있는 것 같습니다. 좋은 발표 감사합니다.


  • 2021-08-10 01:46

    이번 세미나는 Patch SVDD를 주제로 진행되었습니다. 해당 논문은 Deep SVDD를 변형한 patch-wise SVDD를 제안하였습니다. Patch-wise Deep SVDD는 Convolutional Autoencoder로 patch embeddiㅎ을 추출하고 patch들 중 거리가 가까운 것끼리 유사하게 임베딩 되도록 학습하는 방법입니다. 학습시 Self supervised Learning을 사용하는데 이는 임의의 patch를 설정하고, 주변 patch 중 하나를 랜덤하게 골라서 위치를 맞추는 pretext task를 수행함으로 encoder가 feature extractor로서의 기능을 더 잘 수행하게끔 하였습니다. 따라서 Loss function으로 SVDD Loss와 SSL Loss 같이 사용하여 두 가지 목적을 달성하고자 하였습니다. test시 Generating Anomaly Maps를 사용하는데 개인적으로 train과 test 데이터에 대한 patch embedding을 추출하고 둘간의 유사한 embedding을 찾아 L2 map을 찾는 방법이 신선하게 다가왔습니다. 말로만 들었으면 이해하기 어려웠을 것 같은데 발표자료에서 단계별로 하나씩 슬라이드로 표현해주셔서 이해하기 한결 쉬웠습니다. 좋은 발표 감사합니다.


전체 513
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 11252
관리자 2020.03.12 0 11252
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 9884
관리자 2020.03.12 0 9884
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 10967
관리자 2020.03.12 0 10967
510
[Paper Review] Theory of Everything (About Sequence Modeling with DL Models…) (9)
Jaewon Cheon | 2025.06.27 | 추천 0 | 조회 117
Jaewon Cheon 2025.06.27 0 117
509
[Paper Review] Evaluation of Multilingual Image Captioning: How far can we get with CLIP models? (16)
Minjeong Ma | 2025.06.07 | 추천 0 | 조회 288
Minjeong Ma 2025.06.07 0 288
508
비밀글 [Rehearsal] 석사학위 논문심사 - 마민정 (19)
Minjeong Ma | 2025.06.02 | 추천 0 | 조회 36
Minjeong Ma 2025.06.02 0 36
507
비밀글 [Rehearsal] 석사학위 논문심사 - 정기윤 (20)
Kiyoon Jeong | 2025.06.02 | 추천 0 | 조회 33
Kiyoon Jeong 2025.06.02 0 33
506
비밀글 [Rehearsal] 석사학위 논문심사 - 남웅찬 (19)
Woongchan Nam | 2025.06.02 | 추천 0 | 조회 33
Woongchan Nam 2025.06.02 0 33
505
비밀글 [Rehearsal] 석사학위 논문심사 - 이상민 (21)
SangMin Lee | 2025.06.02 | 추천 0 | 조회 34
SangMin Lee 2025.06.02 0 34
504
[Paper Review] Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems (14)
Siyul Sung | 2025.05.31 | 추천 0 | 조회 368
Siyul Sung 2025.05.31 0 368
503
[Paper Review] Restructuring Vector Quantization with the Rotation Trick (16)
Woojun Lee | 2025.05.20 | 추천 0 | 조회 340
Woojun Lee 2025.05.20 0 340
502
[Paper Review] Battling the Non-stationarity in Time Series Forecasting via Test-time Adaptation (16)
Jinwoo Park | 2025.05.16 | 추천 0 | 조회 318
Jinwoo Park 2025.05.16 0 318
501
[Paper Review] SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning (18)
Hun Im | 2025.05.15 | 추천 0 | 조회 301
Hun Im 2025.05.15 0 301

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 허재혁 : jaehyuk.heo@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호