[Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables

Paper Review
작성자
Sunghun Lim
작성일
2025-04-24 23:45
조회
546
1. 논문 제목
2. Overview
  • 외생 변수(exogenous variables)를 활용한 시계열 예측을 위해 Transformer 모델을 확장한 새로운 접근 방식을 제안
  • 내생 변수 임베딩 (Endogenous Embedding): 내생 변수의 시계열 데이터를 일정한 길이의 패치로 분할하고, 각 패치를 임베딩하여 시간적 패턴을 포착
  • 글로벌 토큰 : 내생 변수에 Concatenate되어, 내생 변수의 전체 시계열 정보를 요약하면서, 외생 변수와의 상호작용을 위한 브릿지 역할
  • 외생 변수 임베딩 (Exogenous Embedding): 외생 변수 각각을 전체 시계열 시점에 대한 단일 벡터로 임베딩하여, 변수 간의 상호작용을 모델링합니다.
  • Attention을 통한 관계 학습 :
    • Self Attention을 통해 Temporal Dependency 학습
    • Cross-Attention을 통해 외생 변수와 내생 변수 간의 상호작용을 학습
3. 발표자료 및 발표영상
  • 발표자료 : 하단 첨부
  • 발표영상 : 추후 업로드 예정
전체 18

  • 2025-04-26 20:54

    실제 세계에서 발생하는 시계열 정보에는 data point 외에도 관여된 외생변수들이 존재하며, 미래 예측에 이를 충분히 활용해야 한다는 문제 의식은 합리적이나, 서로 다른 형태의 내생변수와 외생변수를 적절히 활용하여 유의미한 결과를 얻을 수 있는 방법론을 고안한다는 것은 쉽지 않으리라 생각됩니다. TimeXer는 patch들 간의 관계를 global-to-local, local-to-global cross attention으로 포착하고, 외생변수를 global token에 포함시킴으로써 이러한 융합을 실현하고자 노력한 연구입니다. 외생변수는 주로 시계열 데이터의 time-window 전체에 걸쳐 영향을 주었을 것이라는 가정 하에 global token에 포함되도록 한 것이 직관적으로는 적절하다고 생각이 들었으며, 특히 외생변수와 내생변수의 time window 크기를 달리 하는 실험까지 포함한 것에서 객관적이고 일반적인 접근인 듯합니다. Benchmark dataset 외에도, 외생변수가 강하게 작용한 다른 여러 case들에 대해 적용되었을 때는 성능이 어떨지 궁금해지는 연구였습니다. 본 논문을 설명하기 위해 related work들 (PatchTST, iTransformer, TiDE)도 핵심적인 내용을 간결하게 설명해주셔서 TimeXER의 논리 흐름을 이해하기 좋았습니다. 좋은 발표 감사합니다!


  • 2025-04-28 13:51

    이번 세미나는 과거 데이터를 바탕으로 미래 값을 예측하는 시계열 예측 분야에서 예측 대상이 되는 내생 변수(Endogenous Variables)뿐만 아니라, 예측 대상은 아니지만 정보를 제공하고 내생 변수에 영향을 줄 수 있는 외생 변수(Exogenous Variables)까지도 모델링할 수 있는 모델인 TimeXer을 제안한 "TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables”라는 논문에 대한 발표를 중심으로 진행되었습니다. 기존 시계열 예측 분야에서 좋은 성능을 보여주던 PatchTST, iTransformer, TiDE와 같은 방법론들은 외생 변수에 대한 모델링이 제한되거나, 시계열 내 복잡한 세부적인 시간 패턴을 반영하지 못한다는 등의 한계점을 가지고 있습니다. TimeXer은 이러한 기존 모델들의 한계점을 개선하고자 내생 변수와 외생 변수 각각에 대해 Patch-Level과 Variate Level 표현을 도입하고, Global Token을 Bridge로 활용하여 기존 Transformer 구조를 수정하지 않고도 내/외생 정보를 모두 효과적으로 시계열 예측에 도입하였습니다. 시계열 예측 분야에서의 외생 변수라는 것이 예측을 어렵게 하는 요인이 되긴 하지만, 이 정보를 충분히 잘 활용한다면 오히려 좋은 정보를 모델에 제공할 수 있을 것이라는 생각이 들었고, 내생 정보와 함께 효과적으로 모델링하고자 한 본 논문에서의 의도가 충분한 의미가 있는 연구라는 생각이 들었습니다. 좋은 발표 해주셔서 감사합니다.


  • 2025-04-28 15:59

    이번 세미나에서는 시계열 예측에서 외생 변수의 중요성을 강조하며, 이를 효과적으로 통합하기 위해 Transformer를 확장한 “TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables” 논문에 대해 발표해 주셨습니다. 외생 변수는 variate-wise로 단일 벡터로 임베딩되며, Cross-Attention을 통해 Global Token이 외생 정보만을 선택적으로 수용하는 구조가 매우 깔끔하고 실용적입니다. 기존의 PatchTST, iTransformer, TiDE 등의 장점을 적절히 통합하면서도, 불필요한 복잡성을 늘리지 않고 구조를 유지한 점이 뛰어나다고 느꼈습니다. 특히, 내생 변수 간의 시간 의존성과 외생 변수와의 상호작용을 모두 학습할 수 있도록 설계한 것이 강점으로, 다양한 시계열 환경에서도 유연하게 적용 가능한 점이 인상적이었습니다. 외생 변수와 내생 변수를 명확히 분리하여 각자의 특성을 살리면서, 서로를 보완하는 방향으로 정보를 주고받는 설계는 실용성과 해석 가능성 측면에서도 매우 매력적이었습니다. 또한, Variate-wise Attention을 통해 외생 변수별로 영향력을 해석할 수 있다는 점은 매우 실용 가능성이 높다고 생각되었습니다. 단순하지만 강력한 아이디어를 기반으로 외생 변수를 명시적으로 활용한 시계열 예측의 새로운 패러다임을 제시한 훌륭한 연구라고 생각합니다. 좋은 연구 발표해 주셔서 감사합니다.


  • 2025-04-28 17:04

    이번 세미나에서는 "TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables" 논문을 소개해주셨습니다. 본 연구는 시계열 예측에서 외생 변수를 효과적으로 통합하기 위해, 글로벌 토큰을 매개로 내생 변수와 외생 변수를 연결하고, Cross-Attention을 통해 중요한 외생 정보를 선택적으로 반영하는 구조를 제안했습니다. 기존 PatchTST, iTransformer, TiDE의 한계를 보완하면서도 모델 복잡도를 과도하게 늘리지 않고 설계한 점이 인상적이었으며, 외생 변수와 내생 변수의 상호작용을 유연하게 학습해 다양한 시계열 환경에 적용 가능한 강점을 보여주었습니다. 실용성과 해석 가능성 모두를 고려한 의미 있는 접근이었다고 생각합니다. 좋은 발표 감사합니다.


  • 2025-04-29 16:21

    이번 세미나에서는 시계열 예측에 있어 외생 변수를 효과적으로 반영하기 위한 프레임워크인 “TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables” 논문을 다루어 주셨습니다. 기존의 시계열 예측 모델들이 내생 변수 중심으로 설계되어 외생 정보의 반영에 한계가 있었던 반면, TimeXer는 글로벌 토큰을 통해 외생 변수 정보를 통합하고 Cross-Attention 구조를 통해 이를 선택적으로 반영하는 방식이 인상 깊었습니다. 특히 외생 변수를 variate-wise로 임베딩하여 각 변수의 중요도를 해석할 수 있도록 설계한 점은 실용성과 해석 가능성을 동시에 고려한 접근으로 느껴졌습니다. 또한 기존 PatchTST나 iTransformer 등과 달리 구조의 간결함을 유지하면서도 내·외생 변수 간 상호작용을 모델 내에서 자연스럽게 처리했다는 점에서 실제 응용 가능성이 높다고 생각됩니다. 다양한 외생 요인이 작용하는 실제 시계열 환경에 적용해보면 더욱 흥미로운 결과를 기대할 수 있을 것 같습니다. 좋은 발표 감사합니다!


  • 2025-04-29 21:58

    이번 세미나에서는 외생 변수(exogenous variables)를 명시적으로 반영하는 시계열 예측 모델을 제안한 논문인 TimeXer를 중심으로 진행되었습니다. 본 논문은 기존 Transformer 구조를 유지하면서도 외생 변수와 내생 변수의 정보를 동시에 효과적으로 학습할 수 있도록 Patch 단위의 내생 변수 토큰과 Variate 단위의 외생 변수 토큰을 각각 임베딩한 후, 이를 Cross-Attention 구조로 연결하는 방식을 제안합니다. 특히 내생 변수는 Patch-wise Tokenization과 Global Token 도입을 통해 시간적 패턴을 요약하고, 외생 변수는 연산량을 줄이기 위해 Patch가 아닌 Variate 기준으로 처리되며, 이는 실세계에서 발생할 수 있는 누락, 정렬 불일치 등 다양한 문제에도 유연하게 대응할 수 있게 합니다. TimeXer는 기존의 PatchTST, iTransformer, TiDE의 장점을 조합하여 설계되었으며, 12개의 시계열 벤치마크에서 SOTA 성능을 달성하면서도 모델 확장성과 일반화 능력을 입증하였습니다.


  • 2025-04-30 11:48

    이번 세미나에서는 NeurIPS 2024에 발표된 TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables 논문을 중심으로, 외생 변수(exogenous variables)를 효과적으로 활용한 시계열 예측 모델 설계에 대해 소개해주셨습니다. 기존 시계열 예측 모델이 외생 변수를 단순 보조 정보로 취급했던 반면, TimeXer는 내생 변수와 외생 변수를 분리해 구조적으로 다르게 처리함으로써 예측 정확도를 높이고자 한 점이 인상적이었습니다. TimeXer는 내생 변수에 대해 patch-wise self-attention을 적용해 시간적 의존성을 학습하고, 외생 변수는 variate-wise cross-attention을 통해 내생 변수와의 상호작용을 모델링합니다. 특히 global endogenous token을 활용하여 외생 변수의 정보를 내생 시계열에 효과적으로 통합하는 방식이 흥미로웠습니다. 이번 발표는 Transformer 기반 구조에 외생 변수를 명시적으로 반영함으로써 시계열 예측의 정확성과 해석 가능성을 동시에 높일 수 있다는 점에서 의미가 있었고, 현실 데이터의 복잡성을 반영한 설계 전략이라는 점에서도 시사점이 컸습니다. 좋은 발표 감사합니다!


  • 2025-04-30 14:14

    이번 세미나에서는 “TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables” 논문을 소개해주셨습니다. 본 연구는 시계열 데이터 예측에서 내생 변수뿐만 아니라, 예측 대상은 아니지만 중요한 정보를 제공하는 외생 변수까지 효과적으로 활용할 수 있는 방법론을 제시했습니다. TimeXer는 내생 및 외생 변수의 정보를 Patch-Level과 Variate-Level로 표현하고, Global Token을 통해 두 변수를 효율적으로 결합하여 Transformer 모델의 구조적 수정 없이도 복잡한 시계열 패턴을 예측할 수 있게 하였습니다. 특히 global-to-local 및 local-to-global cross attention 방식을 통해 서로 다른 형태의 변수 간 관계를 효과적으로 포착한 점이 흥미로웠으며, 외생 변수의 time-window 크기를 다르게 설정하여 더욱 객관적인 평가를 진행한 점 또한 인상적이었습니다. 또한, 기존 우수한 모델들(PatchTST, iTransformer, TiDE)의 한계를 명확히 제시하고 이를 개선하는 논리적 흐름을 잘 보여주어 이해하는 데 큰 도움이 되었습니다. 앞으로 외생 변수가 강력한 영향을 미치는 다양한 실제 사례에서의 성능이 기대되는 연구였습니다. 좋은 발표 감사합니다.


  • 2025-05-01 13:59

    이번 세미나는 “TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables” 논문에 대해서 소개해주셨습니다. 발표에서는 외생 변수와 내생 변수를 Transformer 기반 시계열 예측 모델에 효과적으로 통합하는 방식을 제안한 TimeXer 모델의 구조와 아이디어를 중심으로 설명해주셨습니다. 특히 내생 변수는 patch 단위로 임베딩하여 시간 흐름을 잘 포착하고, 외생 변수는 variate 단위로 처리하여 noise와 연산 비용을 줄이면서도 global token을 통해 두 변수 간 상호작용을 자연스럽게 학습할 수 있도록 설계한 점이 인상적이었습니다. 실제로 다양한 데이터셋에서 기존 모델보다 뛰어난 성능을 보였고, Spike 데이터에 다소 약한 부분은 존재하지만 전체적으로 단순한 구조와 높은 일반화 능력 덕분에 실용 가능성이 높아 보였습니다. 외생 변수가 예측에 어떤 방식으로 기여하는지 시각적으로 해석 가능한 점도 흥미로웠고, 다양한 baseline과의 비교, ablation 실험을 통해 제안 모델의 강점이 잘 드러났다고 생각합니다. 좋은 발표 감사합니다.


  • 2025-05-01 16:08

    금일 세미나는 “TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables” 논문을 바탕으로 진행되었습니다. 제안 연구에서는 시계열 데이터 의 예측을 내생변수/외생변수 관점에서 모델링하는 방법을 제안하고 있습니다. 이때, 외생 변수란 내생 변수에 영향을 줄 수 있는 외부 요인들로, 시계열 데이터 예측이라는 과업을 중점적으로 보았을 때 예측 대상이 아닌, 예측에 도움이 되는 정보를 제공할 수 있는 변수들을 의미한다고 볼 수 있겠습니다. 이를 위하여 제안 연구에서는 다변량 시계열 데이터에서 하나의 시계열(변수)를 예측해야하는 대상인 내생 변수로, 다른 시계열들을 예측에 도움을 줄 수 있는 외생 변수로서 다루고 있습니다. 먼저, 내생 변수 시계열을 patch token 단위로 임베딩을 하며, 추가적인 global token을 도입하게 됩니다. 또한, 서로 다른 외생 변수들 역시 variate token으로써 임베딩을 하게 됩니다. 이후 모델링 과정에서는 내생 변수 시계열 patch token과 global token 들에 대한 self-attention을 진행하여 representation을 만든 이후, 내생 변수의 global token과 서로 다른 외생 변수들의 variate token 간 cross-attention을 통해 모델링을 진행합니다. 최근 일반화 성능을 떨어뜨릴 수 있는 변수간 상관관계를 어떻게 모델링할지에 대해 많은 연구가 이루어지고 있는데, 필요한 변수만을 고려하겠다는 아이디어가 좋아보였습니다. 또한, 해당 연구에서는 서로 다른 변수의 시계열을 외생변수로 사용하지만 완전히 서로 다른 형태를 가지는 외생 변수 데이터 역시 사용할 수 있다는 것이 큰 장점으로 보였습니다. 좋은 발표 정말 감사드립니다.


  • 2025-05-02 13:45

    오늘 세미나는 “TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables” 논문을 주제로 진행되었습니다. 이 논문은 외생 변수를 효과적으로 활용하여 시계열 예측 성능을 향상시키기 위한 Transformer 기반의 새로운 구조를 제안합니다. 내생 변수는 패치 단위로 임베딩되고, 전체 시계열 정보를 요약한 글로벌 토큰이 외생 변수와의 상호작용을 중재합니다. 외생 변수는 시계열 전체에 대한 단일 벡터로 임베딩되며, Cross-Attention을 통해 내생 변수와 연결되는데, 이러한 구조는 예측 성능뿐 아니라 해석 가능성 측면에서도 뛰어난 강점을 보여줍니다. 실험 결과도 여러 데이터셋에서 우수한 성능을 입증하며, 실용적인 확장 가능성을 보여준 점에서 의의가 있다고 생각했습니다. 좋은 발표 감사합니다.


  • 2025-05-02 16:29

    이번 세미나는 시계열 분야의 예측 태스크에서 시계열 변수 외에도 고정된 외생 변수를 고려할 수 있는 "TimeXer: Emposering Transformers for Time Series Forecasting with Exogenous Variables"를 중심으로 진행되었습니다. 시계열 예측 시에 이전 시점의 변수들을 고려하는 다변량 예측과 관련해서는 많은 연구들이 있지만, 이외에도 각 시점마다 미리 획득 가능한 외생 변수를 고려하는 것 역시 매우 중요합니다. 해당 연구에서는 이를 Transformer 구조의 모델을 이용하면서 외생 변수를 embedding 레이어와 cross attention 모듈을 통해 간단히 해결하고자 하고 있습니다. 이러한 작업은 과거 시계열 정보만 활용하는 PatchTST나 입력 데이터에 외생 변수를 함께 활용하는 TiDE보다 더 높은 성능을 보이고 있습니다. 현실 데이터를 고려해보면 주가 예측에서 특정 뉴스 데이터나 거시 경제 지표 등의 외생 변수는 당연히 활용되어야 하는 정보이고, 매우 큰 영향력을 미치게 됩니다. 이러한 정보를 잘 활용하는 방법론이 지속적으로 연구되어야 할 것으로 보입니다. 좋은 발표 감사드립니다.


  • 2025-05-04 18:24

    이번 세미나에서는 "TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables" 라는 논문에 대한 소개를 중심으로 진행되었습니다. TimeXer는 기존의 Transformer 기반 시계열 예측 모델에 외생 변수(exogenous variables)를 효과적으로 통합하기 위한 혁신적인 접근 방식을 제안하며, 이를 가능하게 한 핵심 설계 요소들과 성능 평가 결과에 대해 상세히 다루었습니다. 이번 세미나에서 인상 깊었던 점은 외생 변수와 내생 변수를 각각 독립적으로 임베딩하고, Cross-Attention 메커니즘을 통해 상호작용을 설계한 부분이었습니다. 기존 Transformer 기반 모델들이 주로 내생 변수의 시간적 의존성에만 집중했다면, TimeXer는 외생 변수의 정보를 글로벌하게 요약하고 이를 Global Token으로 연결하여 예측 과정에 통합함으로써, 예측력과 해석 가능성을 동시에 잡았다는 점이 돋보였습니다. 기존 PatchTST, TiDE 등의 모델과 비교했을 때, 모델의 복잡성을 크게 늘리지 않으면서 성능을 개선했다는 점이 매력적이었습니다. 좋은 발표 준비해주셔서 감사합니다.


  • 2025-05-05 19:39

    이번 세미나는 시계열 예측(time series forecastion)을 주제로 진행되었습니다. 소개해주신 연구는 외생 변수와 내생 변수를 구별한 후, 이를 모두 동시에 활용하는 방안을 제안하고 있습니다. 내생 변수는 예측 대상이 되는 변수이며 외생 변수는 예측 대상은 아니지만 내생 변수 예측에 영향을 주는 외부 요인으로 볼 수 있습니다. 제안 방법론인 TimeXer은 트랜스포머 인코더 구조만을 활용하며 PatchTST의 개념을 도입한 것으로 볼 수 있습니다. 내생 변수를 Patch Token 단위로 임베딩하고 외생 변수는 각 변수별로 토큰화 하여 이를 각각 self-attention과 cross-attention에 적용하는 과정을 거칩니다. 다만, 이때 외생 변수와 내생 변수의 시점의 길이는 꼭 같을 필요는 없습니다. 또한 예측하는 내생변수는 하나만 설정합니다. 만약 해당 개념을 유지한 채 다변량 시계열 예측 과업에도 적용할 수 있을지 궁금합니다. 좋은 발표 감사합니다.


  • 2025-05-06 13:26

    이번 세미나에서는 외생 변수를 적극적으로 활용한 Transformer 기반 시계열 예측 모델인 TimeXer이 소개되었습니다. 기존 시계열 예측 모델에서는 외생 변수의 활용이 제한적이거나 부차적인 요소로 다루어졌던 반면, 본 논문에서는 외생 변수와 내생 변수 간의 관계를 구조적으로 정교하게 반영하려는 시도가 눈에 띄었습니다. 특히 내생 변수의 시계열 데이터를 패치 단위로 임베딩하고, 이를 글로벌 토큰과 결합해 요약 정보를 전달하는 방식은 매우 창의적인 접근이라 느꼈습니다. 외생 변수 임베딩 역시 전체 시계열 범위를 고려한 표현으로 설계되어, 모델이 변수 간의 의미 있는 상호작용을 보다 잘 학습할 수 있도록 돕는 점이 흥미로웠습니다.
    Self-Attention과 Cross-Attention을 적절히 활용하여 시간적 의존성과 변수 간 상관관계를 동시에 포착하려는 구조도 설계 면에서 인상적이었고, 실험 결과에서도 그 효과가 잘 드러난 것 같습니다. 모델 구조가 비교적 간결하면서도 확장성과 해석 가능성을 모두 고려하고 있어, 실제 응용에서도 실용성이 높을 것으로 기대됩니다. 좋은 발표 감사드립니다 🙂


  • 2025-05-06 19:02

    이번 세미나에서는 외생 변수를 효과적으로 활용한 Transformer 기반 시계열 예측 모델인 TimeXer를 다뤘습니다. 기존 시계열 예측 모델들은 내생 변수의 시간적 패턴만을 중점적으로 다루는 경향이 있었던 반면, TimeXer는 글로벌 토큰을 통해 외생 변수와 내생 변수 간의 상호작용을 구조적으로 통합한 점이 인상적이었습니다. 특히 외생 변수를 variate 단위로 임베딩하고, global-to-local, local-to-global cross-attention으로 연결한 설계는 실용성과 해석 가능성을 모두 고려한 세련된 접근이라 느껴졌습니다. 모델 복잡도를 크게 증가시키지 않으면서도 기존 PatchTST, TiDE 등의 한계를 보완하며 다양한 시계열 환경에서 성능을 개선한 점은 주목할 만합니다. 외생 변수의 time window 크기를 달리한 실험을 통해 실제 적용 가능성까지 고민했다는 점도 인상 깊었습니다. 좋은 발표 감사합니다.


  • 2025-05-07 23:41

    이번 세미나에서는 "TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables" 논문을 소개해 주셨습니다. 단순히 내생 변수의 시간적 패턴만 고려했던 기존 Transformer 계열 모델들과 달리, 외생 변수의 실질적인 영향력을 효과적으로 모델링한 구조가 인상 깊었습니다. 특히 Patch 단위의 내생 임베딩과 Variate 단위의 외생 임베딩을 별도로 처리하면서, 이 둘을 Global Token을 매개로 연결하는 설계는 매우 직관적이면서도 유연한 접근이라는 생각이 들었습니다. 또한 다양한 현실적 제약을 고려했고 실제 성능에서도 sota를 달성한 점이 설계의 실효성을 보여주었지만 예외적 변화에 대한 대응이 상대적으로 약하다는 부분은, 향후 적용 시 고려해야 할 개선 포인트라고 생각합니다. 전반적으로 시계열 예측에서 외생 변수의 중요성을 명확히 보여주며, 기존의 모델 설계 흐름에 의미 있는 방향성을 제시했다는 점에서 매우 흥미로웠습니다. 좋은 논문 소개해주셔서 감사합니다!


  • 2025-05-12 17:02

    이번 세미나에서는 시계열 예측에서 외생 변수의 중요성을 강조하며, 이를 효과적으로 통합하기 위해 Transformer 구조를 확장한 “TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables” 논문을 중심으로 발표가 진행되었습니다. 본 연구는 내생 변수는 patch-wise self-attention으로 시간 의존성을 학습하고, 외생 변수는 variate-wise cross-attention을 통해 Global Token이 선택적으로 정보를 수용하는 구조를 제안해, 간결하면서도 실용적인 모델 구성을 보여주었습니다. 기존 PatchTST, iTransformer, TiDE 등의 장점을 계승하면서도 복잡도를 최소화하였으며, 외생 변수와 내생 변수를 명확히 구분한 설계가 해석 가능성과 실용성을 높였습니다. 특히 외생 변수 간 영향력을 해석할 수 있는 Variate-wise Attention 구조는 실제 적용 가능성 측면에서도 인상적이었습니다. 내생 변수의 전반적인 표현을 정제한 후, 외생 변수 정보를 통합하는 방식은 다양한 시계열 환경에서도 유연하게 활용될 수 있을 것으로 기대됩니다. 단순하지만 명확한 설계로 외생 변수를 효과적으로 활용한 좋은 연구였습니다. 흥미로운 주제로 발표해 주셔서 감사합니다.


전체 512
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 10882
관리자 2020.03.12 0 10882
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 9535
관리자 2020.03.12 0 9535
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 10630
관리자 2020.03.12 0 10630
509
[Paper Review] Evaluation of Multilingual Image Captioning: How far can we get with CLIP models? (11)
Minjeong Ma | 2025.06.07 | 추천 0 | 조회 128
Minjeong Ma 2025.06.07 0 128
508
비밀글 [Rehearsal] 석사학위 논문심사 - 마민정 (19)
Minjeong Ma | 2025.06.02 | 추천 0 | 조회 36
Minjeong Ma 2025.06.02 0 36
507
비밀글 [Rehearsal] 석사학위 논문심사 - 정기윤 (20)
Kiyoon Jeong | 2025.06.02 | 추천 0 | 조회 33
Kiyoon Jeong 2025.06.02 0 33
506
비밀글 [Rehearsal] 석사학위 논문심사 - 남웅찬 (19)
Woongchan Nam | 2025.06.02 | 추천 0 | 조회 32
Woongchan Nam 2025.06.02 0 32
505
비밀글 [Rehearsal] 석사학위 논문심사 - 이상민 (21)
SangMin Lee | 2025.06.02 | 추천 0 | 조회 34
SangMin Lee 2025.06.02 0 34
504
[Paper Review] Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems (12)
Siyul Sung | 2025.05.31 | 추천 0 | 조회 219
Siyul Sung 2025.05.31 0 219
503
[Paper Review] Restructuring Vector Quantization with the Rotation Trick (16)
Woojun Lee | 2025.05.20 | 추천 0 | 조회 252
Woojun Lee 2025.05.20 0 252
502
[Paper Review] Battling the Non-stationarity in Time Series Forecasting via Test-time Adaptation (16)
Jinwoo Park | 2025.05.16 | 추천 0 | 조회 230
Jinwoo Park 2025.05.16 0 230
501
[Paper Review] SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning (18)
Hun Im | 2025.05.15 | 추천 0 | 조회 213
Hun Im 2025.05.15 0 213
500
[Paper Review] AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP (18)
Junyeong Son | 2025.05.08 | 추천 0 | 조회 380
Junyeong Son 2025.05.08 0 380

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 허재혁 : jaehyuk.heo@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호