번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 10287
|
관리자 | 2020.03.12 | 0 | 10287 |
공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 8899
|
관리자 | 2020.03.12 | 0 | 8899 |
공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 10012
|
관리자 | 2020.03.12 | 0 | 10012 |
498 |
New [Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables
Sunghun Lim
|
2025.04.24
|
추천 0
|
조회 5
|
Sunghun Lim | 2025.04.24 | 0 | 5 |
497 |
[Paper Review] Imputation-based Time-Series Anomaly Detection with Conditional Weight-Incremental Diffusion Models (3)
Suyeon Shin
|
2025.04.21
|
추천 0
|
조회 39
|
Suyeon Shin | 2025.04.21 | 0 | 39 |
496 |
[Paper Review] Revisiting Multimodal Fusion for 3D Anomaly Detection from an Architectural Perspective (7)
Woongchan Nam
|
2025.04.16
|
추천 0
|
조회 106
|
Woongchan Nam | 2025.04.16 | 0 | 106 |
495 |
[Paper Review] Your Large Vision-Language Model Only Needs A Few Attention Heads For Visual Grounding (9)
Kiyoon Jeong
|
2025.04.16
|
추천 0
|
조회 193
|
Kiyoon Jeong | 2025.04.16 | 0 | 193 |
494 |
[Paper Review] Reasoning over Time Series with LLMs (13)
Hyeongwon Kang
|
2025.04.09
|
추천 0
|
조회 271
|
Hyeongwon Kang | 2025.04.09 | 0 | 271 |
493 |
[Paper Review] Accurate predictions on small data with a tabular foundation model (16)
Jaehyuk Heo
|
2025.04.02
|
추천 0
|
조회 266
|
Jaehyuk Heo | 2025.04.02 | 0 | 266 |
492 |
[Paper Review] Reasoning and Reinforcement Learning for LLM (15)
Jaehee Kim
|
2025.04.02
|
추천 0
|
조회 259
|
Jaehee Kim | 2025.04.02 | 0 | 259 |
491 |
[Paper Review] LLM based Recommender Systems : EAGER-LLM (19)
Jungho Lee
|
2025.04.02
|
추천 0
|
조회 244
|
Jungho Lee | 2025.04.02 | 0 | 244 |
490 |
[Paper Review] Data-driven discovery of coordinates and governing equations (18)
Hankyeol Kim
|
2025.03.25
|
추천 0
|
조회 241
|
Hankyeol Kim | 2025.03.25 | 0 | 241 |
489 |
[Paper Review] DUET: Dual Clustering Enhanced Multivariate Time Series Forecasting (15)
Sieon Park
|
2025.03.19
|
추천 0
|
조회 348
|
Sieon Park | 2025.03.19 | 0 | 348 |
이번 세미나는 "Adversarial Training Methods for Network Embedding"을 주제로 진행되었습니다. 지난번 서승완 박사과정의 발표를 통해 Adversarial training에 대한 개념을 정확히 알 수 있었는데, 이를 추천시스템에 응용한 연구에 대해 알 수 있었습니다. 논문에서 의문이 들었던 부분은, Data augmentation과 이 논문에서 제안한 adversaria example의 차이를 명확히 구분하기 어려웠다는 점입니다. 특히 추천시스템 task에서 중요한것은 "Test set"에 있을만한것을 생성하여 모델의 성능을 향상시키는것입니다. 하지만 논문에서 제안하는 Adversarial training은 유저와 아이템에 노이즈를 추가하여 모델을 강건하게 만드는 것으로 Data augmentation과의 차이를 느끼기 어려웠습니다.
추천시스템의 전반적인 방향과 다양한 방법론을 적용한 연구에 대해 알 수 있었습니다.
모델을 학습할 때 조작된 노이즈를 주어 학습할 경우 사람의 판단으로는 똑같은 것으로 인지하는 사진이나 음성을 오분류 하는 등의 문제가 발생할 수 있습니다. 특히 이는 그림을 하나 들고 있으면 사람을 인지하지 못하는 등의 문제가 됩니다. 이를 방지하기 위해서 Adversarial sample을 생성하여 모델을 공격하고 모델이 이를 방어하는 과정에서 훨씬 더 강건한 모델을 만들 수 있습니다. 하지만, 이러한 학습 방식에도 문제가 있는데 처음부터 노이즈를 주어 학습할 경우 모델의 성능이 현저히 낮아지는 문제가 발생합니다. 이를 방지하고자 논문에서는 training data만으로 수렴할 때까지 학습을 한 뒤 노이즈 데이터를 주어 fine tuning을 하는 학습 방식을 제안합니다. 이렇게 학습할 경우 모델의 예측을 힘들게 하는 데이터를 추가적으로 학습하여 훨씬 더 강건한 모델을 만들 수 있음을 논문에서는 주장합니다.
본 세미나에서는 Adversarial Training 방식을 Recommendation system과 graph embedding에 활용할 수 있는 두 가지 방법을 추가적으로 학습하였습니다. 특히 Word2vec과 유사한 방식으로 graph를 embedding 하는 Adversarial network embedding 방식이 흥미로웠습니다. 더욱 더 강건한 모델을 만들기 위한 Adversarial training 방식과 추천시스템, 그래프 임베딩에 관해 학습할 수 있었던 유익한 시간이었습니다.
감사합니다.
이번 세미나는 이정호 석박통합 과정의 Adversarial Training Methods for Network Embedding 이라는 논문에 대한 발표였습니다. Adversarial Training 은 두 단계로 이루어지게 되는데, 첫 단계에서 정상 데이터로 모델을 학습 시킨 후 두 번째 단계에서 여러가지 Adversarial 샘플들을 학습시킵니다.
이러한 AdvT(Adversarial Training)을 추천시스템에 적용하게 되면, 원 데이터에 FGSM알고리즘을 적용하여 Adversarial 데이터를 생성합니다. 그런 다음 원 데이터와 Adversarial 데이터를 가지고 BPR(Bayesian Personalized Ranking)학습을 하게 됩니다.
이번 세미나를 통해서 Vision 분야에서의 Adversarial Training 방법을 추천시스템이나 Graph Embedding에 적용한 사례를 배울 수 있었습니다.
Adversarial Training이란 Step1) 정상데이터를 모델에 학습 step2) 정상데이터+adversarial sample를 같이 모델에 학습하는 구조를 가서 일반화 성능을 높이는것을 말합니다. 그 대안으로 fast gradient sign method은 목적식에 대한 그래디언트를 반대 방향으로 주어 adversarial examples을 만드느것 같습니다. Bayesian personalized rank는 item-user간의 laten vector를 산출 한후 item의 차이를 상대적으로 크게 만드는 방법이라고 할 수 있습니다. 제안한 모델은 이 BPR에 adversarial training 컨셉을 적용해 모델의 성능을 크게 해치는 값(gradient)을 이용해 파라미터를 perturbation을 하여 모델의 강건성을 향상 시켰습니다. 두번째로 발표해 주신 논문에서 일반적으로 graph모델을 위한 데이터 전처리는 1-order(최대 count 1), 2-order(최대 count 2)형태로 거리행렬로 변환시켜주게 됩니다. 선행연구로 써 Deep walk는 Random walk 연결된 weight들이 동등하다고 가정한 반면 nodevec은 주변 엣지들의 확률적인 관계들을 표현하는 것처럼 제안방법의 방식또한 아이템의 시퀀스의 노드들을 인접한 노드의 형태들을 임베딩으로 표현한것 같습니다. 그래프관련 연구를 잘 보지 못해서 이해가 부족하지만 앞으로 진행되는 세미나를 보고 공부해 보도록 하겠습니다.
금일 세미나 시간에는 "Adversarial Training Methods for Network Embedding" 라는 주제로 이정호 학생이 발표를 진행해 주었습니다. 이정호 학생은 개인 연구방향인 추천시스템에서의 Item representation 을 위해 Graph representation을 활용하고자 해당 논문을 준비한 것 같습니다.
최근 딥러닝 분야에서 Graph Neural Network 를 활용한 다양한 연구들이 진행되면서 Graph Representation task 가 많은 성과들이 소개되어오고 있습니다. 해당 논문에서는 기존 Graph Embedding의 robust한 성능 도출을 위해 adversarial? 관점에서의 학습 메커니즘을 활용하여 Graph Node & Link prediction task에서 기존 Graph Embedding 방법론으로 널리 알려진 DeepWalk, node2vec 대비 좋은 성능을 보여주었습니다. 하지만 adversarial example을 reconstruction하는 단계에서 기존 GAN등 의 방법과는 다소 차이가 있어 조금 혼란 스럽기는 하지만 해당 논문에서는 소개하는 adversarial training regularization 방법론을 통해 확실히 효과적인 regularizer의 역활을 수행하고 있다고 주장하고 있습니다.
아직은 생소할수 있는 신입생들을 위해 Graph Learning과 Adversarial training을 세미나의 서두에 소개시켜준 점은 좋았습니다. 세미나를 준비하느라 고생한 이정호 학생에게 감사하며 후기를 마치겠습니다.
Adversarial training과 추천시스템 도메인에서의 그 적용에 관한 세미나였습니다. 처음 adversarial training에 대해 접한 것은 domain adaptation을 통해서였는데, 각기 다른 도메인에서 shared된 feature를 산출하기 위해 domain을 잘 구분하지 못하도록 adversarial loss를 발생시키는 기법이 굉장히 참신하게 느껴진 기억이 있습니다. 당시에는 이러한 기법이 해당 분야에서만 통용되는 특수한 기법이라고 생각했었는데, 프로젝트 및 세미나를 접하면서 adversarial training 자체가 모델의 강건성을 높여주는 일반적인 기법이라는 생각이 점점 들기 시작하였습니다. 비록 오늘 세미나에서 토론이 오갔던 것처럼 추천 도메인에서의 adversarial training은 일반적인 그 개념과는 다른 점이 있었지만, 해당 기법이 많은 분야에서 통용되며, 노이즈를 추가하여 모델을 강건하게 만드는 것이 모델의 일반화 성능을 향상시키기 위해서 필수적으로 적용되어야하는 기법이라는 생각이 들었습니다.
이정호 석박통합과정의 세미나 발표를 들었습니다. 오늘 발표해주신 논문은 2019년 World Wide Web Conference 에서 발표된 논문으로 Network Embedding 을 위해 Adeversarial Training 방법을 사용한 연구였습니다. 추천 시스템의 Robustness 를 향상 시키기위한 연구였고, 제가 Adversarial Training 에 대해서 이해가 부족해서 조금 이해하기가 어려웠습니다. 네트워크 임베딩은 Link Prediction 이나 Node Classification 과 같은 다양한 Task 에 적용가능한 방법이고, 이 Embedding 학습시 Regularization 을 위해 non-convergence 문제로 인해 상대적으로 학습이 어려운 GANs 대신에 Adversarial Training 전략을 취했다는 것이 해당 논문의 핵심적인 내용인 것 같고 이 부분과 관련된 내용을 개인적으로 더 학습해봐야겠다는 생각을 했습니다.
이번 발표에서는 추천 시스템 모델을 학습할 때 adversarial example을 쓰는 방식에 대한 것이었습니다. 단순히 기존의 데이터만 가지고 augmentation하는 것보다 새로운 아이템으로 여겨질 수 있는 adversarial example을 이용하면 일반적인 데이터에 대해서도 robust해질 수 있다는 논리였습니다. 본 논문에서 만들어낸 adversarial example이 모델로 하여금 class를 오분류 하도록 만들어진다면, normal data에서 robust하다고 볼 수 없지만 클래스가 바뀌지 않도록 변형이 되기 때문에 robust 해지는 것 같습니다. 그렇지만 이것이 adversarial attack에 의한 example이 맞는가 하는 의문도 들었습니다. 외적으로 MF나 BPR과 같은 기존 방법론들에 대해 간략히 설명해주어서 좋았고, 식과 그림과 함께 설명되어 전체적으로 흐름을 따라가는데 수월했습니다.
개인적인 생각으로는, adversarial attack , defense와 관련된 논문들에서는 결론적으로 모델이 이를 판별하게 하는가 못하게 하는가에 초점이 맞춰져있지만, 추천 시스템에서는 사실 변형된 아이템임베딩이 구매된건지 아닌건지에 대해 판단미스인지에 대해 확인할 수 없는 부분이기 때문에, 이와 같은 논리를 차용해서 사용한 것이 아닌가 생각해보았습니다.
Adversarial Training은 기존 training data로 모델을 구축한 다음, 현실 데이터에서 발생할 수 있는 분류 기능을 떨어뜨리는 요인들을 학습시켜 모델을 견고하고 똑똑하게 만드는 방법입니다. 이번 세미나에서는 Recommend와 Graph 두 분야에서 Adversarial Training이 어떻게 작용해서 성능을 얼마나 높였는지를 보여줍니다. Recommend에서는 임베딩 차원에서 noise를 추가하고 Graph에서는 Adversarial Network Embedding을 통해 noise를 더해 분류를 합니다.
GAN말고도 noise + data로 모델을 robust하게 만드는 방법을 배울 수 있었고 특히 문장이 있을 때 단어를 중심으로 graph를 생성해 분류하는 것이 많은 분야에서 유용하다고 생각합니다.