번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 10668
|
관리자 | 2020.03.12 | 0 | 10668 |
공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 9288
|
관리자 | 2020.03.12 | 0 | 9288 |
공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 10380
|
관리자 | 2020.03.12 | 0 | 10380 |
508 |
![]()
Minjeong Ma
|
2025.06.02
|
추천 0
|
조회 36
|
Minjeong Ma | 2025.06.02 | 0 | 36 |
507 |
![]()
Kiyoon Jeong
|
2025.06.02
|
추천 0
|
조회 32
|
Kiyoon Jeong | 2025.06.02 | 0 | 32 |
506 |
![]()
Woongchan Nam
|
2025.06.02
|
추천 0
|
조회 32
|
Woongchan Nam | 2025.06.02 | 0 | 32 |
505 |
![]()
SangMin Lee
|
2025.06.02
|
추천 0
|
조회 34
|
SangMin Lee | 2025.06.02 | 0 | 34 |
504 |
[Paper Review] Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems (4)
Siyul Sung
|
2025.05.31
|
추천 0
|
조회 84
|
Siyul Sung | 2025.05.31 | 0 | 84 |
503 |
[Paper Review] Restructuring Vector Quantization with the Rotation Trick (13)
Woojun Lee
|
2025.05.20
|
추천 0
|
조회 191
|
Woojun Lee | 2025.05.20 | 0 | 191 |
502 |
[Paper Review] Battling the Non-stationarity in Time Series Forecasting via Test-time Adaptation (16)
Jinwoo Park
|
2025.05.16
|
추천 0
|
조회 173
|
Jinwoo Park | 2025.05.16 | 0 | 173 |
501 |
[Paper Review] SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning (18)
Hun Im
|
2025.05.15
|
추천 0
|
조회 165
|
Hun Im | 2025.05.15 | 0 | 165 |
500 |
[Paper Review] AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP (18)
Junyeong Son
|
2025.05.08
|
추천 0
|
조회 294
|
Junyeong Son | 2025.05.08 | 0 | 294 |
499 |
[Paper Review]SLMREC: Distilling Large Language Models Into Small For Sequential Recommendation (16)
Doyoon Kim
|
2025.05.01
|
추천 0
|
조회 245
|
Doyoon Kim | 2025.05.01 | 0 | 245 |
본 세미나에서는 Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain라는 논문을 소개해주셨습니다. 해당 논문은 adversarial detection task에 대한 논문으로 해당 task는 adversarial example을 탐지해 inference에서 이와 같은 example들을 보지 못하도록 만드는 task입니다. 이를 위해 adversarial example이 decision boundary 근처에 있다는 특성을 활용했습니다. 굉장히 신선한 주제라는 생각이 들었습니다. 기존과 마찬가지로 개인연구에 대해 상세히 설명해주셨는데 매우 흥미로웠습니다. 좋은 논문을 소개해주셔서 감사합니다. 발표 잘 들었습니다.
이번 세미나에서 다룬 논문은 Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain입니다. Adversarial Detection이란, Adversarial example을 탐지하는 구조를 학습하여 inference 시에는 분류기가 AE를 보지 못하게 하는 방식입니다. SID는 Normal example은 극도로 휘어진 decision boundary영역에서 발생하는 변동에 민감하지 않으나, adversarial example은 이러한 변화에 민감하게 됨으로 Auxilary Network를 두어 adversarial example을 탐지하자는 아이디어에서 비롯되었고, 이를 sensitivity inconsistency dectector이라고 합니다.
본 논문을 설명해주시면서 Normal example과 adversarial example의 차이를 설명해주셨는데, normal example은 극도로 휘어진 decision boundary 영역에 민감한 반면, adversarial example은 민감합니다. 이 민감한 adversarial example을 탐지하여 boundary를 조정하기 위해 Normal example에 대해서 가장 큰 차이를 최소화하도록 학습, Adversarial example에 대해서 충분히 차이가 나도록 강제하는 방법론인 WAWT(Weighted average wavelet transform)를 제안하였습니다. Wavelet 변환기법으로 이미지를 부분의 가중합으로 표현하였는데, 이를 바탕으로 한 Sensitivity Inconsistency Detector인 SID가 실제로 효과를 보이는 것을 확인할 수 있었습니다. 좋은 발표 감사합니다.
금일 세미나는 "Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain"라는 주제로 진행되었습니다. 본 발표에서는 hyper space의 decision boundary를 변경하는 보조 classifier를 통해 adversarial example 탐색하는 방법론이 소개되었습니다. 본 방법론은 auxiliary network를 두어 adversarial example을 탐지하는 방법으로 민감한 adversarial example을 탐지하여 boundary를 조정하기 위해 normal example에 대해서 가장 큰 차이를 최소화하도록 학습하여 adversarial example에 대해서 충분히 차이가 나도록 강제하였습니다. 특히 이미지에 wavelet transform을 적용하여 이미지를 이미지 부분의 가중합으로 재표현하여 사용한 점이 인상적이었습니다. 해당 방법을 이상치 탐지에서도 사용할 수 있을지 생각해보면 좋을 것 같다는 생각이 들었습니다. 좋은 발표 감사합니다.
이번 세미나는 adversarial detection 이라는 또 다른 adversarial 의 관점이라고 생각합니다. 이 전에는 defense 라는 방식으로 모델 자체가 robustness 하는 방식을 많이 사용했는데, 이는 아에 AE를 찾아내는 방식이 차이점입니다. defense 논문들이 최근에 adversarial attack 의 데이터를 기반으로 이를 또 학습하여 defense 한다 는 흐름으로 논문이 이어 지고 있는것 같은데, 예전부터 그럼 새로운 공격이 오면 어짜피 또 뚤리는거 아닌가 하는 의문을 가졌습니다. 우리는 어떤공격이 오던 방어잘하는 모델이 필요한것인데 먼저 맞은후 방어한다는 느낌이였습니다. 차라리 attack 에대한 탐지를 하는것이 본 발표에서 더 합리적이다 라고 생각을 하게 되었고, 본 논문에서는 추가적인 보조적 네트워크를 활용하여 detection 을 하게됩니다. 재미난 주제였고, anomaly detection 이 연구실에서 많이 연구되고 있는데 해당 방법론이 유사하다 생각하여 흥미롭게 보았습니다.
이번 세미나는 adversarial defense와 다르게 adversarial detection에 대해서 다루었습니다. 기본적으로 adversarial defense는 모델 자체를 robustness하게 하는 것이 목적인데 반해 adversarial detection은 adversarial example을 탐지하는 것이 목적입니다. 이렇게 adversarial example을 탐지하게 되면 ood detection 처럼 해당 example에 대한 모델의 결과를 신뢰할 수 없다는 것을 알 수 있기 때문에 모델의 안전성 관점에 큰 기여를 할 수 있다고 생각합니다. 물론 adversarial defense와 adversarial detection 둘 모두 최고의 성능을 달성한다는 가정하에 adversarial detection 방법론은 무용지물이 되지만, 현재 adversarial defense는 아직까지도 큰 성능 하락이 있기 때문에 adversarial detection이 훌륭한 대안이 될 수 있을 것 같습니다. 또한 본 논문에서는 adversarial example의 특성을 밝혀 이를 탐지하는데 이용하는데 이것이 추후 adversarial defense를 잘하는데도 이용될 수 있지 않을까 생각하게 되었습니다. 좋은 발표 감사합니다.
이번 세미나에서는 Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain라는 주제로 발표를 진행해 주셨습니다. 본 논문의 경우 decision boundary에 관한 "sensitivity inconsistency"를 기반으로 normal과 adversarial example를 분류할 수 있고 결과적으로 AE를 이용해 그러한 특성을 학습하도록 합니다. 그동안 소개해주셨던 adversarial defense와는 약간 다르게 이번 논문에서 소개하는 adversarial detection은 사용되는 classifier가 adversarial example을 탐지하도록 하며 이 때 auxiliary loss를 이용하게 됩니다. Boundary 개념을 적극적으로 이용하여 loss를 설계하고 이에 더해 WAWT라는 모델을 구조로 활용하는 점에서 흥미로운 구조였고, 앞으로도 관련된 내용에 대해 좋은 세미나 기대하겠습니다.
이번 세미나는 Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain에 대한 세미나였습니다. 우선 본 연구는 adversarial example과 normal example은 극도로 휘어진 decision boundary에서 민감하거나/민감하지 않다는 점에서 차이점이 존재하므로, auxiliary network를 두어 adversarial example을 탐지할 수 있다는 아이디어에서 시작되었습니다. 이를 위해 Weighted average wavelet transform(WAWT)을 제안하였고, Wavelet transform을 통해 이미지가 어떻게 변형되는지 자세한 예시를 통해 설명해주셔서 이해하기가 쉬웠습니다. 매번 adversarial example을 활용하는 세련된 주제에 대해 소개해주셔서 감사합니다.
해당 세미나 시간에는 지속적으로 adversarial example 관련 연구를 팔로우업 중인 서승완 학생이 Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain이라는 논문을 주제로 발표를 진행해주었습니다. 해당 세미나의 슬라이드 8-9 page 내용은 Adversarial Example(AE)을 이해하는 과정에서 매우 직관적으로 다가왔습니다. Decision boundary를 기준으로, normal example은 극도로 휘어진(the highly-curved) 부분의 변동에서 민감하지 않고, 이와 반대로 AE의 경우 이러한 변동에 민감하게 반응하여 class가 변화하게 된다고 가정할 때, 해당논문에 이러한 Sensitivity Inconsistency를 별도의 Auxilrary network를 통해 AE를 탐지하고자 하였습니다. 좀더 구체적으로는, Weighted Average Wavelet Transform(WAWT)를 활용한 dual classifier를 통해 변동성이 심한 Highly-curved region은 다르게, 변동성이 심하지 않은 나머지 부분은 비슷하게 생성하도록 하는 학습을 수행하게 됩니다. 마지막으로, 제주도 학회를 앞둔 바쁜 와중에도 재미있는 주제로 세미나 준비를 한 발표자에게 감사의 인사 전합니다.
현실적으로 모든 Adversarial Attack을 방어할 수 있는 Defense기법은 존재하기가 매우 어렵다고 생각합니다. 공격자의 입장에서는 한 번만 공격이 성공해도 되지만, 방어하는 입장에서는 모든 공격을 방어할 수 있어야 합니다. 그러한 관점에서 단일 모델의 방어 성능을 높이는 연구들은 물론 가치 있지만, 공격을 수행한 Adversarial Example을 탐지하고, 공격을 감지하는 것 또한 의미 있는 Task라고 생각합니다. 소개해 주신 논문에서는 AE가 Decision Boundary에 민감한 특성을 이용하여 Detection을 수행합니다. 현재는 AE가 갖는 근본적인 특성을 이용하여 Detection을 수행하지만 향후에는 다양한 공격 기법에 대해 각각 우수한 Detection 기법이 제안되지 않을까 하는 생각도 듭니다. 좋은 발표 감사합니다.
이번 세미나에서는 adversarial example에 강건한 모델로 wavelet을 적용한 Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain이라는 논문을 주제로 발표를 진행해주었습니다. 먼저 Adversarial example과 decision boundary에 굉장히 민감하다는 특징을 가지고 있습니다. 이러한 문제를 극복하기 위해 이미지에 wavelet decomposition을 적용하였습니다. Fourier 변환은 Hz(주파수=변화량)를 discrete하게 측정을 못하는 반면 wavelet은 소수점까지의 주파수를 측정할수 있는 장점이 있습니다. 따라서 보다 세밀한 이미지 edge의 변화량을 측정한다는 면에서 data augmentation으로 제안방법론에 큰 기여를 했다고 할 수 있습니다. 좋은 발표 감사합니다.
DNN은 adversarial example에 대하여 분류를 잘 못한다는 약점이 있으며, 이는 모델 성능에 큰 영향을 줍니다. 본 세미나에서 다룬 논문은 정상 샘플과 Adversarial 샘플을 비교하며, 전자는 Decision Boundary의 굴곡진 부분에 대하여 Insensitive하지만 AE는 굴곡 파트에서 분류 성능이 저하된다는 단점이 있습니다. 이를 해소하기 위하여 Primal Classifier에 Dual Classifier를 함께 사용하여 Adversarial Example을 탐지하는데 활용하며 이를 Auxiliary Network라 칭합니다. 즉, 정상 데이터와 Adversarial Example의 Decision Boundary에 대한 Sensitivity가 다르다는 점을 활용하여 각 데이터에 맞는 Network의 혼합이 Auxiliary Network이며 이는 WAWT를 활용해 굴곡이 큰 부분은 다르게, 변동성이 적은 부분은 유사한 생성을 할 수 있도록 학습합니다. 데이터 또는 Task의 특성을 정확히 파악한 뒤 그에 맞는 해결책을 나타낸 논문을 소개해주심에 감사드립니다.
이번 발표는 Adversarial Example(AE)을 활용한 연구 중에서 Attack도 아닌 Defense도 아닌 그렇다고 Training도 아닌 Detection에 대한 주제로 “Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain”라는 논문을 소개해 주셨습니다. 그 동안 Adversarial training에 대한 발표를 주로 들었는데 Detection에 대한 내용은 처음 듣게 되어 생소했고 처음 들었을 떄 Detection이라하면 Anomaly Detection 또는 OOD task와 유사한 문제인가 생각이 들었지만 조금은 다른 내용이었음을 발표를 통해 알게 되었습니다. AE는 Anomaly나 Outlier와 같이 특정 상황에서 벗어난 결과가 아닌 의도적으로 네트워크를 속이기 위해 생성된 가짜데이터로 알고 있습니다. 현실에서 모델을 속이기 위한 AE가 발생했을 때의 대처로 이번 발표에서 소개해주신 Adversarial Detection 모델을 적용하면 Inference시 잘못된 예측으로 문제가 되는 것이 아닌 AE라고 올바르게 판단하여 성능 저하 및 문제가 발생하지 않도록 할 수 있는, 의미있는 Task라고 생각 됩니다. 본 논문에서 인상 깊은 점은 Detection을 할 수 있도록 별도의 Auxiliary Network을 구성한다는 점이었고 해당 network에 Weighted Average Wavelet transform (WAWT)를 적용한다는 점이었습니다. Wavelet은 주로 신호처리에서는 저주파와 고주파를 구분하는데 사용되고 이미지에서는 압축을 위해 주로 사용되는 방법입니다. 이러한 방법을 입력값에 적용하여 전처리 단계로서 이미지를 분해하여 이를 Augmentation의 효과로 사용했다는 점에서 인상이 남습니다. 언제나 좋은 발표 감사합니다.
오늘 세미나는 Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain을 주제로 진행되었습니다. 기존에 Adversarial Example과 Training에 대해 많이 다루어주셨는데, Detection은 처음으로 접하는 주제였습니다. 하지만 새로운 주제에 대해 잘 설명해주셨습니다. 정리를 하자면, adversarial example이 들어왔을 때 이를 탐지해내는 역할을 할 수 있기 때문에 inference시 normal example만 classifier에서 사용될 수 있게 도와주는 역할을 합니다. (이 분야는 역할에 따라 굉장히 엄밀한 정의가 많다고 생각됩니다. 더 열심히 따라가보겠습니다) 제가 이해하기로는 또 다른 task라 여겨지며, 기존 task의 문제를 보완해줄 수 있기 때문에 매우 중요하다고 느껴졌습니다. wavelet은 기존의 문제점을 논리적으로 잘 풀어내기때문에 막힘이 없었지만, 이를 실제로 모델링하고 좋은 성능을 보였다는게 대단한 것 같습니다. 좋은 발표 감사합니다
금일 세미나에서 다룬 논문은 Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain입니다. 본 논문 소개에 앞서 진행중인 개인 연구에 대해 먼저 설명해주셨는데, 3가지 단계를 기준으로 loss 계산 방식을 차별화하여 접근해 성능을 높인 점이 흥미로웠습니다. 또한 본 논문을 설명해주시면서 Normal example과 adversarial example의 차이를 설명해주셨는데, normal example은 극도로 휘어진 decision boundary 영역에 민감한 반면, adversarial example은 민감합니다. 이 민감한 adversarial example을 탐지하여 boundary를 조정하기 위해 Normal example에 대해서 가장 큰 차이를 최소화하도록 학습, Adversarial example에 대해서 충분히 차이가 나도록 강제하는 방법론인 WAWT를 제안하였습니다. Wavelet 변환기법으로 이미지를 부분의 가중합으로 표현하였는데, 이를 바탕으로 한 Sensitivity Inconsistency Detector인 SID가 실제로 실험 결과에서도 그 효과를 보였습니다. 매번 Adversarial training에 대한 세미나를 들으면서 이해가 잘 되어 많이 배워가는 것 같습니다. 감사합니다.
이번 세미나는 서승완 박사과정이 연구중인 주제와 관련된 Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain이라는 논문을 소개해 주셨습니다. Nomal Example과는 다르게 Adversarial example은 Decision boundary에 가깝게 위치하기 때문에 Decision boundary의 변화에 매우 민감하게 반응한다는 특징을 갖고 있습니다. 이러한 특징을 기반으로 모델을 robust하게 하기 위해서 해당 논문에서는 Auxiliary network 제안합니다. Auxiliary network는 원데이터로 학습한 classifer와 Transformed 데이터로 학습한 classfier 두개를 활용하여 Adversarial example을 detection 하는 구조입니다. Transformed 방법으로는 Weighted average wavelet transform(WAWT)을 제안합니다. Wavelet transform이 이미지 데이터에서 augmentation 방법론으로 활용할 수 있다는 점이 인상깊었습니다. 좋은 발표 감사합니다.
금일 세미나는 'Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain'을 주제로 진행되었습니다. 기존 adversarial defense 성능은 real world에 바로 적용하기에는 성능이 다소 낮다는 배경에서 adversarial detection을 목적으로 하는 task가 제안되었습니다. adversarial detection 은 adversarial example을 탐지해서, inference시 분류기가 perturbed example을 보지 못하도록 하는 task입니다. 소개해주신 논문에서는 normal example은 decision boundary에 민감하지 않으나, adversarial example은 경계선의 변화에 민감하다는 특성을 활용하여 auxiliary network 방법론을 제안하였습니다. normal example를 넣었을 때는 2개의 네트워크의 차이가 작아지도록, adversarial example을 넣었을 때는 두 네트워크 차이가 커지도록 학습을 진행합니다. auxiliary network의 input으로 wavelet transform을 적용한 이미지를 활용한 것이 흥미로웠습니다. 좋은 발표 감사합니다.
최근 adversarial training에 흥미를 갖고 공부하고 있습니다. 공부하는 과정에서 그동안 꾸준히 관련 연구를 리뷰해주신 발표자님 덕분에 빠르게 익힐 수 있었습니다. 이번에 소개해주신 task는 adversarial example을 감지하고 본 모델에 사용하지 않도록 폐기하는 adversarial detection입니다. Adversarial training을 거친 모델이 일반화성능과 강건함을 동시에 갖추는 것이 굉장히 어려운 이슈라고 알고 있는데, 본 task는 이 문제를 완화시켜 줄 것으로 기대됩니다. 소개해주신 것처럼 decision boundary를 smoothing하여 강건함을 얻는 것도 좋지만, ae 자체가 classification task에서 갖는 의미에 대해 제 개인연구 분야와 연관지어 생각해볼 수 있는 기회여서 좋았습니다. 좋은 발표 감사합니다.
이번 세미나는 adversarial detection에 대한 내용으로 진행되었습니다. adversarial defense가 현실의 모든 adversarial attack을 방어하기에는 아직 어렵기 때문에, adversarial example을 detect해서 inference 시 classifier가 이를 보지 못하도록 하게 하는 방법론은 소개해주셨습니다. 이렇게 되면, classifier 성능 저하가 없게 하면서 탐지 성능을 높일 수 있다는 장점이 있습니다. 이 논문에서는 adversarial example은 decision boundary가 약간만 변화해도 분류 결과가 달라질 수 있는데, 이를 방지 하기 위해 auxiliary network를 도입했습니다. normal example에 대해서는 기존 network와 auxiliary network의 차이를 최소화 하고, AE에 대해서는 이 차이를 크게 하도록 학습하여, AE를 detect할 수 있게 합니다. OOD detection 관련 논문에서 network를 학습할 때, OOD는 특정 confidence를 넘지 못하게 하고, ID는 특정 confidence를 넘도록 강제하는 방법을 본 적이 있는데, 비슷한 흐름이라고 생각됩니다. 이렇게 각 대상에 대한 loss를 다르게 구성하여 학습시키는 것이 문제를 해결하는 방법이 될 수 있음을 다시 한 번 확인하게 되었습니다. 좋은 발표 감사합니다.
오늘 세미나는 Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain 연구에 대해 진행되었습니다. adversarial attack example들은 발표자께서 시각적으로 잘 설명해주신 것과 같이, 굴곡진 decision boundary에서 매우 민감한 모습을 보입니다. 반대로 normal example은 그렇지 않기에, 이런 특성을 활용해 AE를 탐지하는 방법론을 연구에선 제안했습니다. dual-classifier를 활용해 굴곡이 덜해 덜 민감한 부분의 decision boundary는 기존과 유사하게 학습합니다. 하지만 굴곡이 심해 AE가 매우 민감하게 반응하는 부분의 decision boundary는 기존과 다르게 형성되게 학습해 AE를 탐지하도록 합니다. 이 과정에서 Weighted average wavelet transform (WAWT) 모델을 학습 구조로 사용하게 됩니다. 본 연구는 AE가 갖는 본질적인 특징을 파악해 문제를 해결하였습니다. 이번 세미나를 통해 본 연구처럼, 본질적인 특징을 파악, 분석하는 것이 중요함을 다시 확인할 수 있었습니다. 좋은 발표 감사드립니다.
이번 세미나는 Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain이라는 주제로 진행되었습니다. 지금까지는 adversarial example에 대해 robust한 모델을 만드는 경우와 그 모델이 robust하지 않음을 보이기 위해 adversarial example을 만들어내는 경우에 대해서만 알고 있었는데 detection이라고 해서 조금 생소하였습니다. adversarial example과 nomal example은 sensitivity inconsistency가 생기게 됩니다. normal example의 경우 decision boundary의 변화에 민감하지 않은 반면에 adversarial example의 경우 매우 민감합니다. 따라서 본 논문은 auxiliary network를 사용하여 adversarial example을 detection하고자 하였습니다. 본 논문에서는 Weighted average wavelet transform(WAWT)라는 모델을 제안하였습니다. 발표자분을 통해서 adversarial training에 대해서 알아가고 있는데 이번 세미나에서는 또 새로운 것을 알려주셔서 연구에 대한 시야를 더 넓힐 수 있을 것 같습니다. 좋은 발표 감사합니다.