[Paper Review] Characteristics of DNN feature space

Paper Review
작성자
Seungwan Seo
작성일
2021-01-21 14:48
조회
2110
1. Topic

개인연구를 진행하며 발견한 DNN의 feature space 특성을 선행 연구들과 함께 실험적으로 보임

2. Overview
  • DNN은 discriminative power가 없음
  • DNN은 maximal margin decision boundary를 가지지 못함
3. 발표자료 및 발표영상
  • 발표 자료: 노션 참고
  • 발표 영상: 업로드 예정(비공개 예정)
전체 15

  • 2021-01-27 16:21

    해당 세미나에서는 발표자가 지속적으로 연구하고 있는 Adversarial Example과 관련하여 기존 DNN에서의 feature space의 특징관점에서 이끌어주었습니다. 해당 발표에서는 현재 DNN에서의 문제가 되는 두개의 포인트를 언급하였는데, 첫번째는 discriminative power가 부재하며, 또한 maximal margin decision boundary를 가지지 못한다고 말을 하였습니다. adversarial example들을 이러한 맹점들과 연결지어 잘 설명해주었습니다. 결국 세미나의 주된 내용은 adversarial example 문제를 해결하기위해 class 간의 intra loss와 class 내의 intra loss를 학습에 반영하겠다는 연구의도를 친절한 시각자료를 통해서 잘 전달해 주었습니다. 또한 개인연구를 진행하다 보면 항상 맞닥뜨리는 연구의 재현성(무작위성으로 인한)에 대한 이슈는 많은 공감을 할 수 있는 포인트였습니다. 항상 귀엽고 깜직한 시각자료를 통해 흥미로운 연구들을 공유해주어 매번 감사드립니다. 좋은 연구로 결실을 맺었으면 좋겠습니다.


  • 2021-01-27 17:28

    해당 세미나는 clean accuracy는 90프로이상의 성능가지는데 FGSM의 공격을 가했을 경우 10%이상의 성능을 가지기가 어렵다는면에서 adversarial attack & defense의 연구 중요성을 재확인할 수 있었습니다. 구체적으로 논문주제에서는 각 class의 center vector르 직교성을 가지도록 설정하여 attack의 정도를 굉장히 상승한 것을 확인할 수 있었습니다. 해당 문제의 연구방향성을 class 간의 intra loss와 class 내의 intra loss를 고려한 방법과 margin을 고려한 latent space로 해석한다는 점이 인상 깊었고 기존 svm과 같은 방법을 잘 활용하면 좋은 결과가 나올 것 같습니다.


  • 2021-01-30 21:42

    개인연구만으로 구성된 신선한 세미나였습니다. 여러가지 Attack 방법에도 robust한 모델을 만들기 위해 새로운 Loss term를 제안하시고 다양한 실험을 진행하셨습니다. 어떠한 사고과정을 통해 아이디어를 도출하고, 시행착오를 통해 얻은 결론을 공유해주신 부분이 인상 깊었습니다. 제가 정확히 이해한 것인지 조심스럽지만, Robust한 모델을 학습하기위해 각 class의 feature들이 class의 center를 중심으로 서로 밀집하되, 타 class와는 멀어지도록 loss를 구축하였습니다.

    사실 성능이 좋은 모델이나 연구들은 논문의 형태로 지식이 전달되기때문에 중간 흐름 과정을 알 수 없어서 막연하게 느껴질때가 많습니다. 하지만 세미나를 통해 어떤 사고과정을 거쳐 좋은 결과가 나오는지 알 수 있어서 흥미롭게 들었습니다. 굉장히 겸손하게 말씀해주셨지만 이미 벤치마크 데이터셋에서 기존의 모델보다 더 좋은 성능을 보여서 앞으로의 연구 성과물이 어떻게 나올것인지 기대되기도 했습니다. 좋은 발표 감사합니다.


  • 2021-01-31 16:33

    오늘 세미나는 서승완 박사과정이 오랫동안 Adversial Training 연구하고 실험하면서 발견한 DNN 모델의 feature space 특성을 공유 받을수 있는 시간 이었습니다. 세미나에서 공유해 주신 실험의 핵심은 adversarial example 문제를 해결하기 위해 class 간의 intra loss와 class 내의 intra loss를 학습에 반영하는 것 입니다. 이를 통해 학습된 모델의 decision boundary와 각 class 간의 객체를 떨어뜨리고 객체가 다른 class로 혼동되지 않게 모델을 robutness하게 만들 수 있습니다. 가장 인상 깊었던 실험 내용중 하나는 동일한 pre-trained model을 back-bone으로 활용했음에도 CIFAR10에서 CIFAR100로 달라지면 제안한 방법론이 잘 작동하지 않는 것입니다. 좋은 인사이트와 생각을 공유해주셔서 감사합니다.


  • 2021-02-01 18:09

    금일 발표는 "Characteristics of DNN feature space"라는 주제로 진행되었습니다. 본 발표에서는 발표자가 adversarial example 관련 연구를 진행하며 발견한 DNN의 feature space 특성이 소개되었습니다. 먼저 제가 진행했던 세미나의 내용이 발표자님의 개인 연구에 도움이 되었다는 사실이 매우 보람찼고 이번 세미나는 다른 세미나들과 다르게 개인 연구의 내용이 주가 되어 더 관심을 가지고 발표를 청취하였습니다. 개인적으로 연구를 진행하며, 좋지 않은 결과가 도출되었을 때 해당 원인을 파악하는 것이 굉장히 어렵다고 생각합니다. 금일 발표자가 세미나를 통해 소개해준 내용을 보며 발표자가 결과의 원인을 파악하기 위해 굉장히 많은 노력을 했다는 것이 느껴져 대단하다는 생각이 들었습니다. 또한, 제가 관심을 가지고 있는 anomaly detection에서 정상 데이터의 feature representation이 굉장히 큰 비중을 차지하는데 금일 청취한 내용들이 추후 연구에 도움이 되지 않을까 기대가 됩니다. 좋은 발표 감사합니다.


  • 2021-02-01 18:53

    지금까지 들어왔던 세미나는 논문에 대한 설명 후에 자신의 연구에 어떻게 반영할지에 대한 내용이었지만, 자신의 실험을 구체적으로 정리하여 전달하는 방식은 처음이었기에 색다름이 느껴졌습니다. 또한 Deep Learning을 처음 공부하면 배우게 되는 DNN이 실은 절대적인 성능을 보장받지 못하는 알고리즘이었다는 내용은 충격적이면서도, 그것을 기반으로 발전해나간 알고리즘들에 어떤 영향을 미치게 될 지 궁금해졌습니다. 문제를 구체적으로 정리한 것과 더불어 Classification에서 Adversarial 문제를 해결하기 위하여 Inter Class 간 거리를 멀게, Intra Class 간 거리를 가깝게 하는, Linear Discriminant analysis와 유사한 방식을 통해 Margin을 강제하는 해결책을 제안하였습니다. 항상 연구를 위해 노력하시는 모습을 본받고 싶습니다. 감사합니다.


  • 2021-02-01 22:55

    오늘 세미나는 딥러닝을 사용하는 입장에서, 딥러닝이 많은 것을 해결할 것이라 생각하는 입장에서 굉장히 유익한 세미나였습니다. 가장 흥미롭게 들은 부분은 deep learning 모델이 목적에 맞게 fine tuned 될수록 적절한 margin을 갖기 어려울 수 있다는 점입니다. Intra/Inter를 줄이는 loss를 통해 겪으신 문제를 극복하려는 아이디어가 인상적이었고, 단순히 눈에 보이는 분류 성능만을 쫓다가는 adversarial attack에 굉장히 취약해질 수 있다는 점에서 adversarial attack이 딥러닝의 본질적인 부분을 다루는 굉장히 중요한 분야라는 생각이 계속 들었습니다. 사실 딥러닝이 black box라고 불리는 기법인 만큼 그 내부적인 특성이나 한계점, 극복 방안을 연구하는 것은 굉장히 어려우면서도 중요한 일이라고 생각합니다. 직접 실험을 통해 알게 된 바를 전달해 주셔서 논문 리뷰를 듣는 것 보다 더 느낀 점이 많았습니다. 좋은 연구 결과 있으실 것 같아서 기대하고 있습니다. 좋은 발표 감사합니다.


  • 2021-02-02 16:05

    금일 발표는 발표자분께서 연구해오신 내용에 대한 고찰을 들려주셨습니다. 매번 adversarial attack과 defense에 관해서 좋은 내용들을 들려주셔서 개인 연구에도 많은 도움이 되고 있습니다. 금일 발표에서 말씀해주신 내용 중 DNN이 maximal margin decision boundary를 가지지 못한다는 점은 굉장히 흥미로웠습니다. 진행하신 실험의 주된 내용은 class간의 intra loss와 class 내부의 inter loss를 학습에 반영하는 것이었는데 굉장히 좋은 아이디어라는 생각이 들었습니다. 항상 발표자님의 연구 자세를 보며 많은 것을 배우고 있습니다. 좋은 인사이트를 공유해주셔서 감사합니다.


  • 2021-02-04 23:53

    매우 흥미로운 세미나였습니다. 딥러닝은 결국 목적하는 Task를 잘 수행할 수 있도록 Feature를 변형하고 생성하는 과정의 연속입니다. 이러한 관점에서 Feature Space (Hidden Space)의 특징을 이해하는 것은 매우 중요합니다. 이번 세미나에서 발표자는 Discriminative Power가 없다는 점과 Maximal Margin Decision Boundary를 가지지 못한다는 점을 언급하고, 특히 이 중 Maximal Margin Decision Boundary를 갖지 못하기 때문에 모델이 강건해지지 못함을 언급하였습니다. 또한 이를 해결하기 위해 다양한 실험을 수행하였고, 그 결과를 공유해 주었습니다.
    발표자의 문제 정의와, 논리를 전개하는 방법에 깊은 감명을 받은 세미나였습니다. 좋은 발표 감사합니다.


  • 2021-02-08 14:04

    이번 세미나는 DNN을 사용하여 adversarial attack과 defense를 하는 방법에 대한 세미나였습니다. DNN은 discriminative power가 없을 뿐더러 maximal margin decision boundary를 갖지 못합니다. 이를 해결하기 위하여 intra loss와 inter loss를 줄이는 학습을 하는 방법론이 이번 세미나의 핵심이었습니다. 세미나의 흐름대로 기존에 있던 방법론들의 문제점을 찾고 같은 모델이더라도 hyperparameter에 따라 hyperplane이 다르다는 점을 꼬집고 이를 반영하여 방법론을 제안하는 것이 올바른 연구의 흐름이라는 것을 다시한번 볼 수 있었습니다. 쉽고 깔끔한 설명 감사드립니다.


  • 2021-02-08 14:58

    이번 세미나에서는 발표자께서 연구하고 계시는 Adversarial training의 개인 연구 과정을 상세하게 소개해주셨습니다. DNN이 discriminative power가 없으며, SVM처럼 maximal margin을 가지는 decision boundary를 가지는 것이 아니라는 한계를 보완할 수 있는 연구를 진행중이셨습니다. 그 방법으로 loss term을 개선하는 방법을 고려하시고, deep learning 방법론들 중에서 loss term을 조작하여 성과를 낸 것들에 대해 소개해주셨습니다. 결론적으로 adversarial training에서 normal example과 adversarial example에 robust한 model을 구축하기 위해서 inter, intra loss를 모두 고려하여 학습하는 방법에 대한 여러 실험 내용을 공유해주셨습니다. 연구에 있어서 생각의 흐름이나 자세를 배울 수 있어서 매우 유익한 시간이었습니다. 좋은 발표 준비해주셔서 감사합니다.


  • 2021-02-08 16:27

    금일 세미나에서는 deep neural network으로 얻은 feature space 특성과 그 문제점에 대해 소개해주셨습니다. 구체적으로 CNN은 embedding space를 강제할 constraint가 없기 때문에 이상적인 feature space 와 실제 feature space 간에 차이가 있음을 지적하였습니다. 이러한 흐름에서 각 class의 center vector를 서로 orthogonal 하도록 강제하는 제약식을 추가하였고, triplet loss처럼 비슷한 feature는 가까이 위치하고, 서로 다른 feature는 멀리 embedding 되도록 하는 방법론을 제안하였습니다. 많은 연구에서 당연하게 생각하고 넘어갔던 부분에 대해 꼼꼼히 짚고 넘어가며, 이에 대해 실험적으로 검증하고, 새로운 방법을 제안한 것이 매우 인상적이었습니다. 좋은 발표와 연구내용에 대해 공유해주셔서 감사합니다.


  • 2021-02-08 19:14

    발표자분께서 연구하고 계시는 Adversarial 기반 방법론은 더 강건한, 다시 말하면 더 좋은 representation을 찾는 과정과 밀접하게 연관되어 있다고 느꼈습니다. DNN이 discriminative power가 없다는 것을 가설과 실험으로써 확인하고 클래스마다 갖고 있는 고유한 특징을 추출하기 위한 다양한 시도를 하신 것이 인상깊었습니다. 결국 discriminative power를 증가시키기 위해서는 특정한 형태의 regularization이 들어가야 할 것 같은데, 발표자분께서도 관심을 갖고 있으며 저도 관심이 많은 분야이기 때문에 세미나를 듣는 것만으로도 좋은 인사이트를 얻을 수 있었습니다. 좋은 연구 결과 얻으셨으면 좋겠습니다.


  • 2021-02-08 20:25

    ㅤ발표자는 도입부에 의도적으로 적용된 작은 perturbation을 데이터에 적용함으로써, 교란된 입력으로 인해 모델이 높은 확률로 오답을 출력이 가능한 것으로 보아 “그당시” 우리가 생각하는 딥러닝은 조금 문제가 있다고 언급한 논문인 “Explaining and Harnessing Adversarial Examples”의 논문을 간단하게 소개합니다. 이는 adversarial attack가 최초로 소개된 논문으로 기존에 cost가 점점 적어지도록 학습하는 gradient descent에 반대되는 gradient ascent가 되도록 perturbation을 추가해 모델을 망가뜨리는 것입니다.
    ㅤ“This suggests that adversarial examples expose fundamental blind spots in our training algorithms.” 딥러닝은 feature들의 위치를 강제할 어떠한 제약식도 존재하지 않는다. 실제로 classification 성능이 좋다는 것이 모델이 “class를 잘 embedding한다”라는 것이 아닌 “단지 decision boundary가 구불구불하게 되어있기 때문에 성능이 잘 나올 수도 있다”라는 의견이 나오게됩니다.
    ㅤ이러한 blind spot에 대해 발표자는 직접 세운 가설과 이를 확인하기위해 실험을 통해 확인해보는 것을 소개해주셨습니다. 이는 DNN이 discriminative power가 없으며, decision boundary를 가지지 못한다는 가설이었으며 이를 극복하기 위한 방법과 성과들을 소개해주셨습니다. 저번 발표를 들었을 때까지도 이렇게까지 발전시킬 수 있는 내용이라고는 상상도 못했는데 발표님의 인사이트와 실험설계가 매우 인상적이었습니다. 좋은 발표 감사합니다.


  • 2021-02-09 06:11

    금일 세미나에서는 adversarial training 을 하면서 발표자께서 가지고 있었던 의문, 그리고 고찰에대해서 실험적인 증명와 아이디어를 들을 수 있었습니다. 사실 robustness model, fine-grained representation 관련 이슈들이 최근에 transfer learning 뿐만아니라 실 데이터에 적용할 때 발생하는 미세한 데이터분포차이에 의해 성능저하가 실제로 많이 일어나기 때문에 더욱 주목받고 있습니다. 발표 내용에서 직접적인 아이디어를 그림으로 표현을 해서 보여줌으로써, 어떤 점에서 출발된 아이디어인지 쉽게 와닫게 되었습니다. 좋은 발표 항상 감사합니다.


전체 503
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 10483
관리자 2020.03.12 0 10483
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 9093
관리자 2020.03.12 0 9093
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 10208
관리자 2020.03.12 0 10208
500
[Paper Review] AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP (1)
Junyeong Son | 2025.05.08 | 추천 0 | 조회 35
Junyeong Son 2025.05.08 0 35
499
[Paper Review]SLMREC: Distilling Large Language Models Into Small For Sequential Recommendation (7)
Doyoon Kim | 2025.05.01 | 추천 0 | 조회 113
Doyoon Kim 2025.05.01 0 113
498
[Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables (17)
Sunghun Lim | 2025.04.24 | 추천 0 | 조회 219
Sunghun Lim 2025.04.24 0 219
497
[Paper Review] Imputation-based Time-Series Anomaly Detection with Conditional Weight-Incremental Diffusion Models (17)
Suyeon Shin | 2025.04.21 | 추천 0 | 조회 166
Suyeon Shin 2025.04.21 0 166
496
[Paper Review] Revisiting Multimodal Fusion for 3D Anomaly Detection from an Architectural Perspective (15)
Woongchan Nam | 2025.04.16 | 추천 0 | 조회 193
Woongchan Nam 2025.04.16 0 193
495
[Paper Review] Your Large Vision-Language Model Only Needs A Few Attention Heads For Visual Grounding (17)
Kiyoon Jeong | 2025.04.16 | 추천 0 | 조회 375
Kiyoon Jeong 2025.04.16 0 375
494
[Paper Review] Reasoning over Time Series with LLMs (16)
Hyeongwon Kang | 2025.04.09 | 추천 0 | 조회 388
Hyeongwon Kang 2025.04.09 0 388
493
[Paper Review] Accurate predictions on small data with a tabular foundation model (17)
Jaehyuk Heo | 2025.04.02 | 추천 0 | 조회 389
Jaehyuk Heo 2025.04.02 0 389
492
[Paper Review] Reasoning and Reinforcement Learning for LLM (16)
Jaehee Kim | 2025.04.02 | 추천 0 | 조회 380
Jaehee Kim 2025.04.02 0 380
491
[Paper Review] LLM based Recommender Systems : EAGER-LLM (20)
Jungho Lee | 2025.04.02 | 추천 0 | 조회 312
Jungho Lee 2025.04.02 0 312

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 허재혁 : jaehyuk.heo@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호