번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 10668
|
관리자 | 2020.03.12 | 0 | 10668 |
공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 9288
|
관리자 | 2020.03.12 | 0 | 9288 |
공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 10380
|
관리자 | 2020.03.12 | 0 | 10380 |
508 |
![]()
Minjeong Ma
|
2025.06.02
|
추천 0
|
조회 36
|
Minjeong Ma | 2025.06.02 | 0 | 36 |
507 |
![]()
Kiyoon Jeong
|
2025.06.02
|
추천 0
|
조회 32
|
Kiyoon Jeong | 2025.06.02 | 0 | 32 |
506 |
![]()
Woongchan Nam
|
2025.06.02
|
추천 0
|
조회 32
|
Woongchan Nam | 2025.06.02 | 0 | 32 |
505 |
![]()
SangMin Lee
|
2025.06.02
|
추천 0
|
조회 34
|
SangMin Lee | 2025.06.02 | 0 | 34 |
504 |
[Paper Review] Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems (4)
Siyul Sung
|
2025.05.31
|
추천 0
|
조회 84
|
Siyul Sung | 2025.05.31 | 0 | 84 |
503 |
[Paper Review] Restructuring Vector Quantization with the Rotation Trick (13)
Woojun Lee
|
2025.05.20
|
추천 0
|
조회 191
|
Woojun Lee | 2025.05.20 | 0 | 191 |
502 |
[Paper Review] Battling the Non-stationarity in Time Series Forecasting via Test-time Adaptation (16)
Jinwoo Park
|
2025.05.16
|
추천 0
|
조회 173
|
Jinwoo Park | 2025.05.16 | 0 | 173 |
501 |
[Paper Review] SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning (18)
Hun Im
|
2025.05.15
|
추천 0
|
조회 165
|
Hun Im | 2025.05.15 | 0 | 165 |
500 |
[Paper Review] AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP (18)
Junyeong Son
|
2025.05.08
|
추천 0
|
조회 294
|
Junyeong Son | 2025.05.08 | 0 | 294 |
499 |
[Paper Review]SLMREC: Distilling Large Language Models Into Small For Sequential Recommendation (16)
Doyoon Kim
|
2025.05.01
|
추천 0
|
조회 245
|
Doyoon Kim | 2025.05.01 | 0 | 245 |
Domain Adaptation은 흥미로운 주제이고 continual learning, few-shot learning 과 같은 분야들 처럼 발전이 더디지만 언젠가는 극복해야 하는 분야라고 생각합니다. 그리고 언젠가는 크게 봤을때 맥을 같이하는 분야들이 통합되는 날이 오지 않을까라는 사견도 가지고 있습니다. 앞서 극복해야 한다 라는 표현처럼 아직 DA는 실용적으로 사용하기에는 부족함이 많은 것 같습니다. GANs의 초창기 논문들처럼 논문만 봤을때는 target source에 대한 성능이 매우 좋아 보이지만 실제 개인연구를 위해서 또 프로젝트를 위해서 사용해보면 결과가 엉망임을 알 수 있습니다.
Benchmark dataset 특히나 toy data에 가까운 MNIST와 CIFAR10에 대해서 좋은 성능을 보이는 DA 모델을 구축하는 것도 물론 굉장한 의미가 있고 꼭 필요한 테스크가 되겠지만 우리는 산업공학도이기 때문에 존재하는 DA model을 잘 다듬어서 real world data에 좋은 성능을 보이는 모델을 구축하는 것도 매우 의미있고 흥미로운 주제가 되지 않을까 생각합니다.
이번 세미나는 source와 target 도메인이 상당히 다를 경우 예측된 label은 domain에 의해서 상당히 다를 수 있다는 점에서 고안된 domain adaptation에 관한 모델을 설명하는 세미나입니다. 2015년에 나온 Gradient-based adaptation과 그 후 2017년에 나온 adversarial domain adaptation에 대한 발표였고 그 중에서도 pre-train한 후 adaptation을 적용하여 모델의 성능을 높이는 adversarial domain adaptation의 학습 방법이 흥미로웠습니다. 이 두가지 방법론을 비교해주셔서 더욱 이해가 쉬웠고 data가 적은 특정 도메인의 성능 향상에 적용할 수 있는 방법론으로 유용할 것 같다는 생각이 들었습니다. 감사합니다.
이번 세미나는 Domain adaptation을 주제로 진행되었습니다. domain adaptation은 source data와 target이 다른경우 문제를 해결하기위해 제안된 방법으로, 대부분의 연구들은 target domain을 학습하기위해 label된 데이터가 극소량일 경우 적용하는 방법입니다. Domain adaptation을 적용하면 source와 target분포를 유사하게 학습 할 수 있습니다.
세미나에서는 Gradient based adaptation, adversarial domain adaptation에 대해 다루었습니다. 먼저 gradient based adaptation에서는 back propagation을 진행할 때 label을 잘 맞추도록 가중치를 업데이트하고, domain을 잘 맞추는 방향과 반대로 업데이트를 진행하여 학습을 진행하는 방법이었습니다. 두번째로 Adversarial learning을 활용한 domain adaptation은 source image는 먼저 pretrain을 진행합니다. 그 다음에 미리 학습된 source CNN과 target image들로 학습한 Target CNN으로 나온 값을 Discriminator가 판단하는 과정을 거쳐 Adversarial adaptation이 진행됩니다. Testing 과정에서는 Target image를 Target CNN에 넣었을 때 class의 label을 예측하는 방식으로 진행된다고 이해하였습니다.
domain adaptation에 대해 공부해보지않아서 컨셉을 이해하는게 어려웠지만, 쉽게 풀어서 설명해주셔서 이해할 수 있었습니다. 개인연구에대해 소개해주시는것도 굉장히 재미있게 들었습니다. 항상 좋은발표 감사합니다 !
Domain adaptation은 학습에 이용한 데이터(source domain)의 성질이 평가 혹은 inference에 사용되는 데이터(target domain)의 성질과 다른 경우에도 모델이 잘 예측할 수 있도록 보완하는 방법론입니다. 일반적으로 target domain은 inference에만 사용하므로 class label 정보가 필요 없으며 domain을 구분하는 domain label만을 source와 target 각각에 지정합니다. 본 세미나에서는 두가지 논문을 제안했습니다. 첫 번째 논문은 Gradient Reversal Layer(GRL)을 제안한 논문인 unsupervised domain adaptation by backpropagation입니다. 해당 논문에서는 CNN을 통해 이미지의 feature를 추출한 뒤 별개의 두 classifier layer를 붙여 한 개에서는 class를 예측하고 다른 한 개에서는 domain label을 예측합니다. 이 때 class를 예측하는 classifier는 source domain으로만 학습하며 domain label을 예측하는 classifier에서는 source와 target 모두 사용하되, backpropagation 과정에서 minus를 붙여 gradient가 반대로 전파되도록 학습합니다. 즉 crossentropy에 의해 true label을 잘 예측하도록 loss가 계산되는 것이 아닌 true label을 못 예측하도록 계산됩니다. 이를 통해 모델이 source와 target domain을 잘 구분하지 못하도록 학습합니다. 두 번째 소개한 논문은 Adversarial learning을 이용한 논문인 adversarial discriminative domain adaptation입니다. 해당 논문에서는 source와 target 각각에 대해 encoder를 구축하고 각각에 대해 추출한 feature map을 이용합니다. 학습을 할 때는 먼저 source encoder만을 사용해 label classifier pretrain을 한 후에 두 encoder 모두를 사용해 domain classifier를 adaptation시킵니다. domain classifier는 adversarial learning에서의 discriminator 역할을 하게 됩니다. 학습이 완료된 후 inference 과정에서는 target encoder와 label classifier를 이용합니다. domain adaptation은 실제 산업에서 가장 관심을 보일 만한 주제라고 생각합니다. 좋은 논문들을 소개해주셔서 감사합니다.
금일 발표는 "Domain adaptation"라는 주제로 진행되었습니다. 본 발표에서 소개된 2가지 논문은 domain adaptation 분야의 가장 대표적인 논문으로 이전에 프로젝트에서 접했던 논문이기도 해서 반가운 마음으로 발표를 청취하였습니다. 먼저 발표자는 항상 분야에 제약받지 않고 자신의 개인연구에 접목시킬 수 있는 방법론들을 다양하게 탐색하는데, 이번 발표에서 선정된 논문들 역시 그러했기 때문에 이 점이 인상적이었습니다. 또한, 개인적으로 프로젝트에서 두번째로 소개된 ADDA를 사용하였을 때 해당 논문이 benchmark dataset에서는 좋은 결과를 도출함에도 불구하고 현실 데이터셋에 적용하였을 때 좋지 않은 결과를 도출하였던 경험이 있었기 때문에 발표자의 개인연구의 결과를 기대하며 발표를 청취하였습니다. 하지만 안타깝게도 발표자의 개인연구에서도 domain adaptation의 적용이 좋은 결과를 도출하지 못하였고, 이전에 개인적으로 continual learning을 실제 데이터셋에 적용하였을 때 실패했던 경험들이 있어 아직 최신 기법들을 현실 문제 해결에 적용하기에는 많은 어려움이 있다는 생각이 들었습니다. 이를 통해 산업공학을 전공하는 학생의 입장에서 이러한 점에 대해 더 많이 고민해봐야겠다는 생각이 들었습니다.
김동화 석박통합과정의 세미나 발표를 들었습니다. 오늘 발표해주신 논문은 총 2개로 두 논문 모두 Domain Adaptation과 관련된 논문이었습니다. 발표 초반부에 먼저 Domain Adaptation task가 왜 필요한지에 대해서 쉽게 설명해주셔서 꼭 필요한 연구라는 생각이 들었습니다. 기존 Domain Adapation 연구에서는 보통 Domain Classifier 를 먼저 학습을 시킨 후에 weight 를 고정시키고 Task Classifier 를 학습시키는 방법으로 진행이 됐었는데 이번에 발표해주신 논문은 모두 end-to-end 로 두 개의 classifier 를 학습시키는 방법을 사용한 논문이었습니다. 첫 번째 발표해주신 논문인 'Unsupervised Domain Adaptation by Backpropagation' 은 gradient 를 back propagation 하는 과정에서 Domain Classifier 의 gradient 를 reverse 하는 방법을 통해 실제 task 를 잘 풀면서도 Domain 을 잘 분류할 수 없도록 즉, 의미적으로 도메인이 다른 두 source 를 가까운 공간에 위치시키도록 하는 방식으로 학습을 진행하는 방식이었고, 두 번째 논문은 앞선 논문과 매우 유사한 방식을 GAN 구조를 사용해서 source image 와 다른 domain의 target image 를 discriminator 가 잘 분류할 수 없도록 하는 방식으로 학습을 진행해서 Domain Adaptation 을 풀어나가는 논문이었습니다. 쉽고 간결하게 발표 잘 해주시고, 선행 연구된 논문의 아이디어에서 개인연구로 발전시켜나가는 과정도 많이 배울 수 있었습니다. 발표 잘 들었습니다. 감사합니다.
label이 부족한 target domain에서 좋은 성능을 거두기 위해 상대적으로 label이 풍부한 source domain를 이용하여 domain adaptation에 관한 연구는 꼭 필요하고 중요하다고 생각합니다. 첫번째로 gradient 관점에서 진행한 논문은 Feature를 뽑는 CNN은 공유하며 source는 별도의 downstream task를 수행하고, 또한 다른 task로 source & target을 구별하는 것을 진행합니다. 이 때 핵심 아이디어는 task 자체에서는 역전파를 정상적으로 흘려주지만 feature를 뽑는 CNN에서 source & target을 구별하는 것에 대한 반대방향으로 역전파를 흘려주어(구분하지 못하게) CNN 모듈 자체가 domain에 상관없이 좋은 feature를 뽑도록 만들어 줍니다. 두번째 논문은 GAN 방식으로 CNN 모듈은 공유하지 않고 별도로 source & target 에 대해 학습을 진행합니다. 이후 각각 task는 gradient-based 논문과 동일하지만 source & target을 구별하는 task에서 GAN과 같이 적대적 학습을 진행합니다. target domain에 대한 inference는 source에서 학습된 downstream-task를 진행한 것을 볼 수 있습니다. 발표자께서 같은 방식으로 학습을 진행하였고 GAN-based 에서 논문과 같이 성능이 좋지 못하다고 언급하였는데, GAN 모델 자체가 다른 요소들에 의해 영향을 많이 받고 학습시키기 어려워서 실험결과에 대해 공감을 하였습니다. 개인연구의 결과는 좋지 않았지만 논문을 접목하여 지속적으로 열심히 하는 동화형에게 감사의 말씀을 전합니다.
도메인 adaptation 은 다른 프로젝트를 하면서 시도를 많이 해봤던 방법론 이였습니다. 경험 상 학습데이터의 분포와 다를 test 데이터셋이 들어올 경우, 성능저하가 심각하게 일어나는데, 이런 부분을 보정하여 성능을 높이는 역할을 해주는 방법론 으로 생각합니다. 서로 다른 분포를 가진 데이터셋이 binary 로 분류할 때, 분류를 잘 못하게 loss 를 전파시킵니다. 실제로 실험을 해 봤을때, 99% 정확도로 domain을 분류하지만, adaptation 분류하지못하게 했을 때도 그리 큰 성능향상을 내지 못했습니다. feature 를 뽑아내는 weight를 더 세부적으로 control 하고, 제약조건을 주어야 할 것 같다는 생각을 했었는데, 본 논문에서도 비슷한 언급을 한 것 같아 이해에 도움이 되었습니다. 개인적으로는 또 이 domain 이라는 기준을 어떻게 설정하는지, 어느정도까지가 성능향상에 도움을 줄 수 있을지 실험적인 부분을 검증하는 것도 유의미한 연구일것 같습니다.
이번 세미나 주제는 Domain Adaptation 입니다. Domain Adaptation은 머신러닝을 개발할 때 Domain이 달라진 영역(Target)에서 기존 영역(Source) 정보를 토대로 잘 작동하게 만드는 연구입니다. 첫번째 논문은 Gradient를 이용하여 Domain Adaptation을 적용시킨 연구입니다. 기본적인 구조는 Input Data를 Feature Map으로 만드는 Encoder 부분과 downstream task를 수행하는 classifier, 도메인을 구별하는 classifier로 구성됩니다. 핵심아이디어는 downstream task는 잘 작동하도록 학습하고, 도메인은 구별하지 못하도록 backward loss 반대방향으로 만들어 학습하는 것입니다. 이를 통해 다른 도메인에서도 비슷한 task를 잘 수행하도록 모델을 조정합니다. 두번째 논문은 GAN 구조를 이용하여 Domain Adaptation을 적용시킨 연구입니다. 기본적인 구조는 앞서 설명주신 gradient-based 논문과 동일합니다. 2 Step으로 학습을 진행하는데 첫번째 step에서는 Task에 대해 학습하고, 두번째 step에서는 도메인이 같지 않도록 GAN과 같이 적대적 학습을 진행합니다. 이를 통해 다른 도메인에서도 비슷한 task를 잘 수행하도록 모델을 조정합니다. 데이터가 적을때 적용해 볼수 있는 재미있는 아이디어인 것 같습니다. 좋은 세미나 감사드립니다.