| 번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
| 공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 13861
|
관리자 | 2020.03.12 | 0 | 13861 |
| 공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 12609
|
관리자 | 2020.03.12 | 0 | 12609 |
| 공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 13530
|
관리자 | 2020.03.12 | 0 | 13530 |
| 481 |
[Paper Review] About DeepSeek: Only the Research, No Hype (12)
Jaewon Cheon
|
2025.02.13
|
추천 0
|
조회 1482
|
Jaewon Cheon | 2025.02.13 | 0 | 1482 |
| 480 |
[Paper Review] Constructing Enhanced Mutual Information for Online Class-Incremental Learning (11)
Hun Im
|
2025.02.11
|
추천 0
|
조회 639
|
Hun Im | 2025.02.11 | 0 | 639 |
| 479 |
[Paper Review] TransFusion -- A Transparency-Based Diffusion Model for Anomaly Detection (12)
Woojun Lee
|
2025.02.05
|
추천 0
|
조회 1124
|
Woojun Lee | 2025.02.05 | 0 | 1124 |
| 478 |
[Paper Review] RecRanker: Instruction Tuning Large Language Model as Ranker for Top-k Recommendation (12)
Doyoon Kim
|
2025.01.25
|
추천 0
|
조회 1062
|
Doyoon Kim | 2025.01.25 | 0 | 1062 |
| 477 |
[Paper Review] MetaUAS: Universal Anomaly Segmentation with One-Prompt Meta-Learning (13)
Jaehyuk Heo
|
2025.01.20
|
추천 0
|
조회 1087
|
Jaehyuk Heo | 2025.01.20 | 0 | 1087 |
| 476 |
[Paper Review] Multimodal Industrial Anomaly Detection by Crossmodal Feature Mapping (12)
Woongchan Nam
|
2025.01.17
|
추천 0
|
조회 1446
|
Woongchan Nam | 2025.01.17 | 0 | 1446 |
| 475 |
[Paper Review] MLLM-as-a-Judge: Assessing Multimodal LLM-as-a-Judge with Vision-Language Benchmark (13)
Kiyoon Jeong
|
2025.01.16
|
추천 0
|
조회 1439
|
Kiyoon Jeong | 2025.01.16 | 0 | 1439 |
| 474 |
[Paper Review] Large Language Models for Time Series Anomaly Detection (12)
Hyeongwon Kang
|
2025.01.10
|
추천 0
|
조회 3501
|
Hyeongwon Kang | 2025.01.10 | 0 | 3501 |
| 473 |
[PaperReview] TokenRec: Learning to Tokenize ID for LLM-based Generative Recommendations (13)
Jungho Lee
|
2025.01.06
|
추천 0
|
조회 1088
|
Jungho Lee | 2025.01.06 | 0 | 1088 |
| 472 |
[Paper Review] Training Large Language Models to Reason in a Continuous Latent Space (12)
Jaehee Kim
|
2025.01.05
|
추천 0
|
조회 1673
|
Jaehee Kim | 2025.01.05 | 0 | 1673 |
이번 세미나는 기존 작은 Image/Text Token을 통해 효울적인 학습을 진행할 경우 정보 손실로 인해 성능이 하락할 수 있다는 점을 해결하기 위해 작은 Image/Text Token에 더해 더 큰 Image/Text Encoder를 사용하여 효율적인 학습에 더해 경쟁력 있는 성능까지도 유지할 수 있는 CLIPA라는 방법론을 연구한 “An Inverse Scaling Law for CLIP Training”이라는 논문에 대한 발표를 중심으로 진행되었습니다. 기존 Scaling Law란 언어 모델에서 자주 활용하던 용어로 학습 데이터나 연산 자원, 모델 크기가 성능과 비례하다는 것을 나타냅니다. 본 논문에서 Inverse Scaling Law라는 용어를 사용하는데, 이는 기존 Scaling Law에 반대되는 의미를 가진 것은 아니며, CLIP 학습에서 Encoder의 크기를 키움으로써 성능 하락을 방어한다는 것을 의미합니다. 어찌보면 당연한 현상이라고 처음에는 생각을 했었는데, 세미나를 통해 제한된 자원 속에서 토큰 수를 감소시켰을 때 모델 크기를 단순히 증가시켰을 때 성능을 방어할 수 있다는 것이 왜 저자가 Scaling Law라는 용어를 굳이 포함시키려고 했는지에 대한 의도를 어느 정도 이해할 수 있었습니다. CLIP 모델을 효율적으로 학습시키는 방법을 구상하는 것이 매우 어려운 연구 분야라는 생각이 있는데, 이러한 부분에서 인사이트를 얻을 수 있는 좋은 논문이라는 생각이 들었습니다. 좋은 발표 해주셔서 감사합니다.
이번 세미나에서는 이미지 및 텍스트 토큰의 길이를 줄임으로써 CLIP 학습을 효율적으로 수행하는 새로운 접근 방식을 제시한 ‘An Inverse Scaling Law for CLIP Training’ 논문을 발표해 주셨습니다. 해당 연구는 특히 짧은 토큰과 큰 인코더의 조합이 효율적인 학습과 성능 유지에 기여한다는 ‘Inverse Scaling Law’를 소개하며, 이 법칙을 활용하여 제한된 자원에서도 경쟁력 있는 성능을 달성하는 CLIPA 모델을 제안합니다. 연구에서는 Image Resize와 Text의 Syntax Masking 전략을 비교 분석하였으며, 특히 Syntax Masking이 텍스트의 중요한 의미 정보를 보존하면서도 성능 저하를 효과적으로 방어하는 최적의 전략으로 평가되었습니다. 또한, CLIPA 모델은 기존 CLIP 모델에 비해 훨씬 적은 GPU 사용 시간으로 우수한 성능을 달성하였다는 점에서, 대규모 컴퓨팅 자원이 필요한 기존의 방식에서 벗어나 보다 접근성 있는 연구를 가능하게 한다는 점에서 큰 의의를 가진다고 생각합니다. 학습 데이터의 크기, 모델의 크기, 파인튜닝 스케줄을 다양화하여 실험을 수행함으로써, CLIPA가 더 큰 모델과 데이터셋에서도 효율적으로 스케일업될 수 있는 가능성을 볼 수 있었습니다. 이러한 접근 방식은 대규모 데이터셋을 활용하는 연구에서 컴퓨팅 자원의 비용을 크게 절감할 수 있는 방법론을 제공함으로써, 향후 CLIP 연구의 접근성을 높이고 연구의 지속 가능성을 증진시킬 것이라고 생각합니다. NLP에서 자주 사용되던 Scaling Law 개념을 Vision-Language 모델에 적용한 논문으로써 매우 흥미롭게 들었습니다. 좋은 발표 준비해 주셔서 감사합니다.
본 세미나는 Inverse Scaling Law라는 주제에 대해 CLIP의 학습 방법을 다각도로 분석한 논문을 기반으로 진행되었습니다. 특히 shorter image/text token에 대해 더 빠르고 효율적인 학습이 가능하나, 정보 손실로 인해 성능 하락이 발생 가능하다는 점이 존재합니다. 또한 larger image/text encoder와 결합 시, 효율적인 학습과 경쟁력 있는 성능 유지가 가능하다 라는 인사이트로 제시하였습니다. 이를 바탕으로 Inverse scaling Lasw를 활용하여 학습한 CLIPA라는 모델을 제시한 것이 큰 기여점이라고 생각합니다. 이 논문의 연구 배경은 CLIP에서 Model, Data 등이 커질수록 성능이 떨어진다는 기존 실험 결과입니다. 이를 위해 어떻게 하면 계산량은 save하고 성능 저하를 방어할 수 있을지 살펴보았고, 그 결과 다양한 Image/Text의 Token reduction strategy 비교를 통해 효과적인 결과를 제안했습니다. 좋은 발표 준비해주셔서 감사합니다.
“을 중심으로 진행되었습니다. 일반적으로 scaling law란 학습 연산량 더 많이 사용할 수록 모델의 성능이 높아지는 경향을 의미하며, 그 과정에서 최적의 모델 크기 및 데이터 크기의 조합을 찾는 연구로 이루어지게 됩니다. 해당 연구에서는 이러한 직관과 반대로 데이터 샘플링 등으로 기법으로 동일 데이터에 필요한 연산량을 줄이고, 대신 모델 크기를 증가함으로서 총 연산량은 더 적은 상황에서 높은 성능을 도출할 수 있는 방법론을 제안하고 있습니다. 이와 관련하여 기존 CLIP 모델이 최적의 모델크기, 데이터 크기 조합으로 학습되었다는 보장이 되지 않으므로 inverse scaling law라고 부를 수 있을지는 다소 의문이 남지만, 그럼에도 일반적인 scaling law 개념을 역으로 이용했다는 점에서 매우 효과적인 방법론을 제안한 것으로 보였습니다. 특히나 기존의 vision encoder 연구들을 통해 밝혀진 masking 기법의 효과등을 적절히 활용하는 점에서 향후 추가적인 연구가 가능할 것으로 보입니다. 좋은 발표 감사드립니다.
이번 세미나에서는 “An Inverse Scaling Law for CLIP Training” 논문을 중심으로, CLIP 학습 시 작은 Image/Text Token 사용으로 인한 정보 손실과 성능 하락 문제를 해결하기 위해 더 큰 Image/Text Encoder를 결합한 CLIPA 방법론을 소개했습니다. 기존의 Scaling Law가 모델 크기, 데이터, 연산 자원이 성능과 비례함을 설명하는 반면, 본 논문에서 제안한 Inverse Scaling Law는 Encoder의 크기를 증가시켜 제한된 토큰 수에서도 경쟁력 있는 성능을 유지할 수 있음을 보여주었습니다. 다양한 토큰 감소 전략을 비교 분석하여 효율적인 학습과 성능 방어를 동시에 달성한 점이 특히 인상적이었으며, CLIP 모델의 효율적인 학습 방안을 제시한 유익한 연구라고 생각됩니다. 좋은 발표 감사합니다.
금일 세미나는 'An Inverse Scaling Law for CLIP Training'라는 논문을 소개해 주셨습니다. 기존 연구실 내에서 김재희 박사과정께서 소개해주신 Scaling Law는 학습 연산량이 클수록 모델의 성능이 높아지는 배경 속에, 최적의 모델 사이즈나 데이터 크기를 탐색하는 방법론으로 소개해 주셨는데 본 논문은 Inverse Scaling Law라는 특이한 네임으로 방법론을 제안하고 있어 매우 흥미롭게 들었습니다. 해당 연구에서는 데이터 샘플링 기법을 통해 연산량을 감소하는 대신, Encoder의 크기를 키움으로써 성능 하락을 방어한다는 방법론을 제안하고 있습니다. Token을 더 Shorter하게하는 대신 Encoder의 Size를 높일 경우 효율적인 학습과 경쟁력있는 성능을 증명하고 있으며 다양한 Image/Text의 Token reduction strategy에 따른 Ablation 또한 보여주고 있어서 흥미로웠으며, 본 세미나 때도 논의점이었던 Scaling Law라는 용어 사용에 대한 적절성과 관련하여 여러 연구원분들의 생각을 들을 수 있어서 유익했던 세미나였던 것 같습니다. 좋은 발표 감사합니다!
금일 세미나는 "An Inverse Scaling Law for CLIP Training"논문을 바탕으로 진행되었습니다. 직관적으로 CLIP과 같은 contrastive learning 기반 방법론들을 사용함에 있어서 더 적은 Image/Text Token을 사용한다면 당연히 더 빠르고 효율적으로 학습을 진행할 수 있지만, 정보 손실로 인하여 성능 하락이 발생할 가능성이 존재합니다. 이때, 제안 연구에서는 더 적은 Image/Text Token에서 더 큰 Image/Text encoder를 사용함으로써 효율적인 학습과 경쟁력 있는 성능을 유지할 수 있다 말하며, 이를 Inverse scaling law라고 칭하고 있습니다. 또한, 이를 기반으로 하는 CLIPA 모델을 제안합니다. 해당 연구에서는 다양한 Image/Text의 Token Reduction Strategy 비교 및 CLIP 학습에 적합한 Strategy 도출하여 연구의 필요성을 입증하고 있습니다. 한정된 자원 하에서 실험을 진행한다는 것은 매우 중요하다고 생각되기 때문에, 큰 의미가 있는 연구라고 생각하지만 Inverse scaling law라는 부분에 대한 용어가 크게 와 닿지는 않은 연구였습니다. 복잡한 내용을 쉽게 설명해주셔서 이해가 수월했습니다. 좋은 발표 정말 감사드립니다.
이번 세미나에서는 "An Inverse Scaling Law for CLIP Training" 논문에 대해 다뤄주셨습니다. 본 연구는 CLIP(Contrastive Language–Image Pretraining) 모델의 학습 효율성과 성능 간의 역스케일링 법칙을 탐구하며, 모델의 크기나 데이터 규모가 반드시 성능 향상으로 이어지지 않는다는 흥미로운 관찰을 제시했습니다. 특히, 데이터 품질과 모델 크기의 관계에서 발생하는 비선형적 상호작용에 주목한 점이 인상적이었습니다.
이 논문은 대규모 데이터셋과 모델이 필수적인 것으로 여겨지던 기존의 가정을 재검토하며, 학습 데이터의 품질, 모델의 크기, 학습 전략 간의 균형이 성능 최적화에 얼마나 중요한지를 실험적으로 입증했습니다. 또한, 데이터 필터링과 정제 전략이 CLIP 학습의 효율성을 극대화하는 데 주요한 역할을 한다는 점을 강조하였습니다.
다만, 이러한 역스케일링 법칙이 특정 데이터셋 및 도메인에 얼마나 일반화될 수 있을지는 추가적인 연구가 필요해 보입니다. 전반적으로, 본 연구는 대규모 학습의 효율성과 전략적 접근에 대한 중요한 통찰을 제공하며, CLIP 학습 및 유사 모델의 향후 설계 방향에 새로운 관점을 제시했습니다. 발표 준비해 주셔서 감사합니다!
이번 세미나에서는 효율적 CLIP 학습을 간단히 할수 있는 방법론을 다루는 논문인 'An Inverse Scaling Law for CLIP Training'가 소개되었습니다. Contrastive Language-Image Pre-training(CLIP) 과정에서 모델 크기와 데이터의 토큰 길이 간의 상호 작용을 분석하여 효율적인 학습 전략을 제안하는 연구로, 토큰 길이를 줄이면서 더 큰 Encoder를 활용하는 Inverse Scaling Law를 도입하여 학습 비용을 줄이고 성능을 유지하거나 향상시키는 방법을 확인했습니다. 이를 통해 제한된 자원에서도 성능을 극대화할 수 있는 CLIPA 모델을 제안했으며, 다양한 데이터셋과 태스크에서 기존 모델보다 연산량을 크게 줄이면서도 경쟁력 있는 성능을 입증했습니다.
이번 세미나에서는 "An Inverse Scaling Law for CLIP Training" 논문을 중심으로 CLIP 학습의 효율성과 성능 간 균형을 새롭게 탐구한 연구를 소개받을 수 있었습니다. 기존 Scaling Law 개념을 변형하여 제안된 Inverse Scaling Law는 제한된 자원 환경에서 토큰 수를 줄이는 대신 Encoder 크기를 확장함으로써 성능을 유지하거나 향상시키는 접근 방식을 잘 보여주었습니다. 특히, 다양한 Token Reduction Strategy와 Syntax Masking 기법을 비교 분석하여 CLIP 학습에 적합한 최적의 방법을 도출한 점이 인상 깊었습니다. 좋은 발표 감사합니다.
이번 세미나에서는 “An Inverse Scaling Law for CLIP Training”이라는 논문을 중심으로, 이미지와 텍스트 토큰의 길이를 줄이면서도 CLIP 학습의 효율성과 성능을 유지하는 새로운 접근법이 발표되었습니다. 이 연구는 더 적은 입력 토큰과 더 큰 인코더를 결합하여 효율성을 높이는 ‘Inverse Scaling Law’를 제안하며, 이를 활용해 CLIPA라는 모델을 개발하였습니다. 특히, Image Resize와 Text Syntax Masking 두 가지 전략을 비교한 결과, Syntax Masking이 텍스트의 중요한 의미를 보존하며 성능 저하를 방어하는 데 가장 효과적이라는 점을 강조했습니다. CLIPA는 기존 CLIP 모델 대비 적은 연산 자원으로도 뛰어난 성능을 달성했으며, 이는 대규모 컴퓨팅 자원 없이도 접근 가능한 연구를 가능하게 합니다. 또한, 다양한 모델 크기와 데이터 크기를 실험하여 CLIPA의 확장 가능성을 확인한 점도 인상적이었습니다. 비록 ‘Inverse Scaling Law’라는 용어가 기존 Scaling Law와의 개념적 차이로 인해 다소 생소하게 느껴질 수 있었지만, 자원 효율적인 Vision-Language 모델 학습 방법론을 제시하며 연구의 실용성과 지속 가능성을 높였다는 점에서 큰 의의가 있었습니다. 좋은 발표 준비해주셔서 감사합니다!
이번 세미나는 CLIP의 효율적인 학습이 적용된 CLIPA라는 방법론이 소개되었습니다. 이는 Inverse Scaling Law라는 개념에서부터 착안된 아이디어로 Scaling Law에 대해 먼저 살펴봅니다. Scaling Law는 말 그대로 모델의 크기, 학습 데이터의 양, 계산 가용량 등이 크면 클수록 언어모델의 성능이 좋다는 것을 의미합니다. 이에 반하여 Inverse Scaling Law는 이미지 및 텍스트의 토큰 수는 적게하고 모델은 가능한 크게한다면 학습은 효율적으로 진행되며 성능 또한 어느 정도 유지된다는 것을 의미합니다. 이에 CLIPA는 Inverse Scaling Law를 활용해 제한된 자원 에서 사전 학습 후 full token의 데이터로 fine tuning 된 CLIP을 의미합니다. 추론 과정에서도 CLIPA가 기존 CLIP 보다 효율적인 점을 실험을 통해 증명한 점도 인상깊었습니다. 다만, CLIPA가 멀티모달 분야에서 CLIP을 대체하고 있는 지에 대해서는 아직 물음표를 가지게 됩니다. 흥미로운 연구 소개해주셔서 감사합니다.
이번 세미나에서는 "An Inverse Scaling Law for CLIP Training" 논문을 중심으로 CLIPA 모델이 소개되었습니다. 기존 Scaling Law가 모델 크기와 연산량 증가로 성능이 향상된다고 보는 반면, 본 연구는 토큰 수를 줄이고 Encoder 크기를 증가시키는 방식으로 성능을 유지할 수 있음을 보였습니다. 특히 Syntax Masking 기법이 의미 정보를 유지하며 성능 저하를 방어하는 데 효과적임을 실험적으로 입증했습니다. 또한, CLIPA 모델은 기존 CLIP 대비 더 적은 연산량으로도 우수한 성능을 유지할 수 있다는 점에서 실용성이 높습니다. 다만, Inverse Scaling Law라는 용어의 적절성과 CLIPA의 일반화 가능성에 대한 논의가 필요해 보입니다. 자원 효율적인 CLIP 학습 방법론을 고민하는 연구자들에게 유용한 인사이트를 제공하는 연구였던거 같습니다. 좋은 발표 감사합니다!