Topic
Overview
발표자료 및 발표영상
참고문헌
번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 10287
|
관리자 | 2020.03.12 | 0 | 10287 |
공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 8899
|
관리자 | 2020.03.12 | 0 | 8899 |
공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 10012
|
관리자 | 2020.03.12 | 0 | 10012 |
498 |
New [Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables
Sunghun Lim
|
2025.04.24
|
추천 0
|
조회 6
|
Sunghun Lim | 2025.04.24 | 0 | 6 |
497 |
[Paper Review] Imputation-based Time-Series Anomaly Detection with Conditional Weight-Incremental Diffusion Models (3)
Suyeon Shin
|
2025.04.21
|
추천 0
|
조회 39
|
Suyeon Shin | 2025.04.21 | 0 | 39 |
496 |
[Paper Review] Revisiting Multimodal Fusion for 3D Anomaly Detection from an Architectural Perspective (7)
Woongchan Nam
|
2025.04.16
|
추천 0
|
조회 106
|
Woongchan Nam | 2025.04.16 | 0 | 106 |
495 |
[Paper Review] Your Large Vision-Language Model Only Needs A Few Attention Heads For Visual Grounding (9)
Kiyoon Jeong
|
2025.04.16
|
추천 0
|
조회 194
|
Kiyoon Jeong | 2025.04.16 | 0 | 194 |
494 |
[Paper Review] Reasoning over Time Series with LLMs (13)
Hyeongwon Kang
|
2025.04.09
|
추천 0
|
조회 271
|
Hyeongwon Kang | 2025.04.09 | 0 | 271 |
493 |
[Paper Review] Accurate predictions on small data with a tabular foundation model (16)
Jaehyuk Heo
|
2025.04.02
|
추천 0
|
조회 267
|
Jaehyuk Heo | 2025.04.02 | 0 | 267 |
492 |
[Paper Review] Reasoning and Reinforcement Learning for LLM (15)
Jaehee Kim
|
2025.04.02
|
추천 0
|
조회 260
|
Jaehee Kim | 2025.04.02 | 0 | 260 |
491 |
[Paper Review] LLM based Recommender Systems : EAGER-LLM (19)
Jungho Lee
|
2025.04.02
|
추천 0
|
조회 244
|
Jungho Lee | 2025.04.02 | 0 | 244 |
490 |
[Paper Review] Data-driven discovery of coordinates and governing equations (18)
Hankyeol Kim
|
2025.03.25
|
추천 0
|
조회 241
|
Hankyeol Kim | 2025.03.25 | 0 | 241 |
489 |
[Paper Review] DUET: Dual Clustering Enhanced Multivariate Time Series Forecasting (15)
Sieon Park
|
2025.03.19
|
추천 0
|
조회 348
|
Sieon Park | 2025.03.19 | 0 | 348 |
이번 세미나에서는 ‘TIME-MOE: Billion-Scale Time Series Foundation Models with Mixture of Experts’ 논문에 대해서 발표해 주셨습니다. TIME-MOE는 시계열 데이터를 효율적으로 예측하기 위해 설계된 대규모 Foundation Model로, Mixture-of-Experts(MoE) 아키텍처를 기반으로 합니다. 이 모델은 다양한 Forecasting Horizon에서 우수한 성능을 보이며, 추론 비용을 절감하면서도 모델 성능을 유지하는 것이 특징입니다. 또한, Time-300B라는 대규모 시계열 데이터셋을 사용하여 범용적 예측 능력을 갖추고 있습니다. 해당 논문을 통해 MoE 아키텍처에서 각 Expert가 특정 Context에 최적화되어 동작하면서도 전체 모델의 파라미터를 공유할 수 있는 구조로 설계될 수 있다는 점을 알게되었습니다. 특히, Multi-resolution Forecasting 기능은 단일 모델로 다양한 시간 범위의 데이터를 처리할 수 있게 해주며, 이는 실시간 데이터 처리와 빠른 의사 결정에 큰 도움이 될 것이라고 생각하였습니다. 데이터 전처리 과정에서의 체계적인 접근 방식도 인상적이었으며, 이는 데이터의 질을 보장하고, 결과적으로 모델의 성능을 극대화하는 데 기여하는데 도움이 될 것으로 생각합니다. 평소 궁금했던 점에 대해 자세히 알 수 있었던 세미나라 매우 유익한 시간이었습니다. 좋은 발표해주셔서 감사합니다.
금일 세미나는 매우 대량의 시계열 데이터를 이용한 billion scale의 pretrained time model을 제시한 TIME-MOE: BILLION-SCALE TIME SERIES FOUNDATION MODELS WITH MIXTURE OF EXPERTS을 중심으로 진행되었습니다. 해당 논문의 전체 아이디어는 text 분야와 비슷하게 "매우 많은 데이터, 매우 큰 모델"을 통한 일반화 및 zero-shot 능력 발현입니다. 실제로 전체 프로세스가 특이할 점이 있지는 않으나, 이러한 방식이 실제로 기존 연구들에 비해 월등한 성능을 보인다는 점을 확인하는 것이 중요한 논문인 것 같습니다. 일반적으로 시계열 데이터는 각 도메인 별 특성이 매우 달라, 일반화 및 zero-shot 평가가 불가능하다고 여겨져 왔으나, 가능하다는 점을 증명한 것이 인상적이었습니다. 이러한 연구들이 점차 축적된다면 향후 시계열에서도 매우 다양한 활용 및 multi modal과의 결합이 용이해질 것 같습니다. 좋은 발표 감사드립니다.
이번 세미나는 효과적인 Time-Series Forecasting을 위한 대규모 Foundation Model을 구축하기 위해 Mixture-of-Experts(MoE) 기반의 아키텍쳐인 TIME-MODE를 제안한 “TIME-MOE: Billion-Scale Time Series Foundation Models with Mixture of Experts”라는 논문에 대한 발표를 중심으로 진행되었습니다. 해당 모델은 Time-300B라는 시계열 분야에서 매우 거대한 크기의 데이터셋을 통해 사전 학습되어 다양한 도메인에 대해 범용적으로 적용할 수 있는 모델이며, MoE에 기반하기 때문에 활성화되는 Expert의 수를 제한해 성능을 최대한 유지하면서 효율적인 추론이 가능합니다. 시계열 분야에서의 Foundation Model에 해당하는 논문들을 보면서 시계열 데이터 특성상 대규모 데이터를 수집하고, 이를 통해 학습을 진행해 강력한 Generalization 성능을 보이는 모델을 구축하는 것이 어렵다는 것으로 알고 있었는데 이러한 한계점을 극복하기 시작했다는 점에 큰 의의를 가지고 있다는 생각이 들었습니다. 또한 세미나를 통해 다양한 Time-Series Forecasting의 Foundation Model들의 흐름을 파악하고, 그들의 문제점에 대해서 알 수 있어서 유익한 시간이었습니다. 좋은 발표 해주셔서 감사합니다.
이번 세미나는 'TIME-MOE: Billion-Scale Time Series Foundation Models with Mixture of Experts' 논문을 주제로 진행되었습니다. TIME-MOE는 시계열 데이터의 특수성을 고려하여 예측 성능을 극대화하고, 효율적인 연산을 달성하기 위해 Mixture-of-Experts(MoE) 아키텍처를 채택한 것이 특징입니다. 특히, MoE 구조를 통해 특정 예측 시점에 적합한 전문가만을 활성화해 성능을 유지하면서도 비용 절감이 가능하며, 다양한 horizon에 맞춘 multi-resolution forecasting이 가능하여 매우 실용적인 솔루션을 제시합니다. 또한 Time-300B라는 대규모 시계열 데이터셋과 체계적인 데이터 전처리 파이프라인을 구축함으로써, 일반화 성능을 크게 향상한 점이 인상적이었습니다. 시계열 데이터에서의 Foundation Model이 가지는 가능성과 이를 위한 학습 아키텍처의 발전 가능성을 엿볼 수 있어 매우 유익한 발표였습니다. 좋은 발표 감사드립니다.
금일 세미나는 'TIME-MOE: Billion-Scale Time Series Foundation Models with Mixture of Experts' 논문을 다루어 주셨습니다. TIME-MOE는 시계열 데이터를 다루는 Foundation Model로, Mixture-of-Experts(MoE) 아키텍처를 통해 각 예측 시점에 적합한 전문가만을 활성화함으로써 추론 효율을 높이고, 비용 절감을 달성한 연구이며 특히, Time-300B라는 대규모 시계열 데이터셋을 활용하여 다양한 도메인에 일반화할 수 있는 예측 능력을 갖추고, Multi-resolution Forecasting 기능을 통해 단일 모델로도 여러 시간 범위에서 효과적인 예측을 수행할 수 있다는 점이 인상적이었습니다. 개인적으로 이러한 아키텍처는 기존 시계열 데이터의 도메인 특성에 구애받지 않고 범용성을 제공한다는 점에서 의의를 가진다고 생각하였으며, 실시간 예측 및 다양한 분야에서의 활용 가능성을 제시하는 유용한 접근이라 생각이 들기도 하였습니다. 좋은 발표 감사합니다.
금일 세미나는 Time-MoE: Billion-Scale Time Series Foundation Models with Mixture of Experts 논문을 바탕으로 진행되었습니다. 제안 연구는 최근 큰 관심을 받고 있는 대규모의 시계열 foundation model에 관련된 연구로, Mixture-of-Expert를 차용함으로써 대규모의 파라미터를 효율적으로 활용하면서, Multi-resolution forecasting을 통하여 다양한 horizon에서의 예측을 가능하게 합니다. 가장 먼저 Input time-series가 들어오면 이에 맞춘 Point-wise tokenization을 진행하고 있습니다. 이후로는 Transformer의 decoder를 사용하여 auto-regressive하게 예측을 수행하게 됩니다. 다음으로 제안 방법론의 가장 핵심적인 Mixture-of-Experts에서는 여러 expert network로 구성한 후, 개별 시계열 포인트를 하나의 expert 또는 여러 expert로 라우팅을 진행합니다. 이때 하나의 expert는 여러 컨텍스트에 걸친 공통 지식을 포착하기 위한 shared expert로 지정하게 됩니다. 마지막으로, 실질적으로 예측을 진행하는 multi-resolution forecasting head에서는 각기 다른 forecasting horizons을 위해 설계된 단일 레이어 FFN에서 multiple output projections을 사용하고 있습니다. 상세한 장표 구성 덕분에 이해가 수월했습니다. 좋은 발표 정말 감사드립니다.
이번 세미나에서는 "TIME-MOE: BILLION-SCALE TIME SERIES FOUNDATION MODELS WITH MIXTURE OF EXPERTS"이라는 논문에 대한 소개를 중심으로 진행되었습니다. 이 연구는 대규모 시계열 데이터를 효율적으로 예측하기 위해 Mixture-of-Experts(MoE) 기반의 foundation model을 제안합니다. TIME-MOE 모델은 시계열 데이터의 다양한 특성과 복잡성을 처리할 수 있도록 설계되었으며, Time-300B라는 광범위한 데이터셋을 사용하여 다양한 도메인에서 범용적인 예측 능력을 갖추었습니다. 논문에서는 MoE 아키텍처를 통해 대규모의 파라미터를 효율적으로 활용하면서도 추론 비용을 최소화하는 방법을 소개합니다. 특히, multi-resolution forecasting 기능을 통해 다양한 예측 범위에서 높은 성능을 유지할 수 있음을 강조합니다. 또한, 데이터 전처리 과정에서 체계적인 data-cleaning pipeline을 제안하여 데이터의 품질을 보장하고 모델의 성능을 극대화하는 방법에 대해서도 설명합니다. Time series 분야에서도 Foundation model 개발이 활발해지면서 관련 연구 흐름들에 대해 파악할 수 있는 유익한 시간이었습니다. 좋은 발표 준비해주셔서 감사합니다.
이번 세미나에서는 “TIME-MOE: Billion-Scale Time Series Foundation Models with Mixture of Experts” 논문을 소개해주셨습니다. 이번 논문은 시계열 데이터의 특성을 고려하여 대규모 데이터를 효과적으로 처리하기 위해 Mixture-of-Experts(MoE) 아키텍처를 활용한 Time-Series Foundation Model을 제안하고 있습니다. Point-wise tokenization을 통해 입력된 시계열 데이터를 적절히 변환한 후, Transformer의 decoder를 이용해 auto-regressive 방식으로 예측을 수행하는 과정이 인상적이었습니다. 이 논문에서 Time-300B와 같은 대규모 시계열 데이터셋을 통해 사전 학습된 모델이 여러 도메인에 범용적으로 적용될 수 있다는 점은 시계열 데이터를 다루는 연구자들에게 큰 의미를 가질 것 같습니다. 시계열 데이터의 대규모 학습에서 발생하는 여러 난제를 극복하며, 효율적인 추론 성능을 유지하는 MoE 기반의 접근법이 매우 흥미로웠습니다. 좋은 발표 감사합니다.
이번 세미나에서는 “TIME-MOE: BILLION-SCALE TIME SERIES FOUNDATION MODELS WITH MIXTURE OF EXPERTS” 논문을 발표해 주셨습니다. 이 논문은 대규모 시계열 데이터를 예측하기 위해 Mixture-of-Experts(MoE) 아키텍처를 채택한 Foundation Model을 제안하며, 다양한 예측 범위에서 성능을 발휘하는 Multi-resolution Forecasting 기능이 특징입니다. TIME-MOE는 Time-300B라는 방대한 시계열 데이터셋을 사용해 사전 학습되었고, 이를 통해 여러 도메인에 범용적으로 적용할 수 있는 일반화 성능을 갖추었습니다.
MoE 구조를 통해 특정 예측 시점에 맞는 Expert만을 활성화하여, 효율적이면서도 정확한 예측을 제공하며 비용 절감이 가능하다는 점이 인상적이었습니다. 특히 Point-wise tokenization과 Transformer의 decoder를 통해 auto-regressive 방식으로 예측하는 구조가 시계열 데이터의 특성을 잘 반영하고 있었습니다.
체계적인 데이터 전처리 파이프라인을 갖추어 모델의 성능을 극대화한 점 또한 주목할 만하며, 향후 시계열 데이터 연구에서 더욱 다양한 활용 가능성을 제시하는 모델로 보였습니다.
이번 세미나에서는 시계열 데이터를 효과적으로 예측하기 위한 대규모 Pretrain 모델을 Mixture-of-Experts (MoE) 방식으로 구현하고자 했던 논문인 "TIME-MOE: Billion-Scale Time Series Foundation Models with Mixture of Experts" 를 중심으로 진행되었습니다. 다양한 시계열 데이터에 대해 Representation Learning을 하고자 하는 움직임은 있었으나, 시계열 데이터들의 무작위성으로 인해 이가 쉽지 않았는데, TIME-MOE는 폭넓은 예측 성능을 제공하면서도 활성화되는 expert 수를 제한하여 추론 비용을 줄이는 데에 기여점이 있습니다. 대규모 시계열 데이터셋을 활용해 학습하였으며, Multi Resolution 예측을 통해 여러 예측 기간에 걸쳐 정확도를 높이고자 하였습니다. 또한 예측의 일반화 성능을 개선하기 위해 Huber loss와 auxiliary loss를 결합하여 사용했으며, 이는 routing collapse 문제를 방지하고 모델의 안정성을 높이는 데 기여합니다. MOE 구조에서 항상 켜져있는 Expert를 따로 두는 것이 좋을 것 같다고 막연히 생각하고 있었는데, 시계열 연구에서 이와 같은 접근을 했던 것이 신기했던 것 같습니다. 좋은 발표 감사합니다!
이번 세미나는 'TIME-MOE: Billion-Scale Time Series Foundation Models with Mixture of Experts' 논문을 중심으로 진행되었습니다. TIME-MOE는 대규모 시계열 데이터 예측을 위해 설계된 Foundation Model로, Mixture-of-Experts(MoE) 아키텍처를 통해 특정 예측 상황에 맞는 Expert만 활성화함으로써 효율적인 추론을 가능하게 합니다. 이 모델은 Time-300B라는 대규모 시계열 데이터셋을 사용하여 다양한 도메인에서 일반화 능력을 확보했으며, Multi-resolution Forecasting 기능을 통해 다양한 시간 범위에서 높은 성능을 보입니다. 특히 Point-wise tokenization과 Transformer 기반 구조를 활용한 auto-regressive 예측 방식이 인상적이었고, 시계열 데이터를 효과적으로 다루기 위한 체계적인 데이터 전처리 파이프라인도 눈에 띄었습니다. 이러한 연구는 향후 시계열 데이터 활용 및 실시간 예측 분야에서 중요한 전환점이 될 것으로 보입니다. 좋은 발표 감사합니다!
이번 세미나에서는 "TIME-MOE: BILLION-SCALE TIME SERIES FOUNDATION MODELS WITH MIXTURE OF EXPERTS"에 대해 소개해주셨습니다. 해당 연구는 기존 시계열 연구 분야에서 대규모 사전 학습이 갖는 여러 비용 측면 한계점에 집중하고 있습니다. 이를 위해 시계열 예측 모델인 Time-MOE를 제안합니다. Time-MOE는 Mixture-of-Experts 아이디어를 적용한 것으로, 각 시점의 데이터 특징에 따라 적절한 전문가 모델을 선택하고, 이를 통해 모델의 성능을 향상시켰습니다. 특히 MOE로 특정 시계열 패턴 마다의 전문가를 활용함으로써 연산을 줄이고 비용을 최소화하는 효과를 보입니다. 이에 따라 TIme-MOE는 대규모 데이터 환경에서도 실시간으로 효율적인 예측이 가능하며, 시계열 데이터 마다 각기 다르게 형성되어 있는 특성을 최적으로 고려할 수 있는 아이디어라고 할 수 있습니다. 좋은 발표 감사드립니다.
이번 세미나에서 다뤄진 'TIME-MOE: Billion-Scale Time Series Foundation Models with Mixture of Experts' 논문 발표는 매우 인상적이었습니다. 특히, 대규모 시계열 데이터 예측을 위해 Mixture-of-Experts (MoE) 아키텍처를 채택하여 효율적인 예측과 비용 절감을 동시에 이뤄낸 점이 주목할 만했습니다. Time-300B라는 방대한 시계열 데이터셋을 사전 학습에 활용하여 다양한 도메인에 범용적으로 적용 가능한 모델로 발전시켰다는 점에서 시계열 데이터 분석의 새로운 가능성을 보았습니다. 또한, Multi-resolution Forecasting을 통해 여러 시간 범위의 예측이 가능하다는 점과 Point-wise tokenization 및 Transformer 기반 auto-regressive 구조가 시계열 데이터의 특성을 잘 반영한 것 같아 매우 흥미로웠습니다. 좋은 발표 감사드립니다.