[Paper Review] TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment

Paper Review
작성자
Sieon Park
작성일
2025-07-14 13:15
조회
758
1. 논문 제목
2. Overview
  • 시계열 예측을 위한 LLM 기반 이중 모달리티 임베딩에서 발생하는 데이터 얽힘 문제를 규명
  • 분리된(disentangled) 임베딩을 학습하기 위한 TimeCMA 프레임워크를 제안함
    • 1. Cross-modality alignment 모듈 제안
      :  LLM 기반 프롬프트 임베딩로부터 분리되면서도 강건한(disentangled and robust) 시계열 임베딩을 채널 유사도 기반으로 추출함
    • 2. 각 프롬프트의 마지막 토큰을 활용한 설계 제안
      : 계산 비용을 줄이고, 이를 저장하여 빠른 예측을 가능하게 함
3. 발표자료 및 발표영상
  • 발표자료 : 하단 첨부
  • 발표영상 : 추후 첨부
전체 10

  • 2025-07-15 10:03

    이번 세미나는 다변량 시계열 예측 과업에서 거대 언어 모델을 활용하는 과정에서 프롬프트 기반의 방법론들에서 발생하는 데이터 얽힘(Data entanglement) 문제와 높은 계산 비용, 느린 추론 속도를 개선시킨 TimeCMA라는 방법론을 제안한 “TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment”라는 논문에 대한 내용을 중심으로 진행되었습니다. TimeCMA는 앞서 언급한 문제점을 개선시키기 위해 시계열과 텍스트 Branch를 따로 구성해 인코딩을 진행하고, 채널 단위의 유사도 값을 기반으로 두 Modality 간 Alignment를 수행하여 최종 예측을 수행합니다. 이전 시계열 예측 모델에서 LLM을 활용하는 모델들을 봤을 때 LLM이 가지는 능력에 너무 의존한다는 느낌이 많이 들었는데, TimeCMA의 경우 각각의 인코딩 단계를 거쳐 정렬을 수행한다는 점이 좀 더 시계열과 텍스트 Modlaity가 가지는 특성을 잘 활용하는 구조를 택했다는 생각이 들었습니다. 앞으로도 LLM을 시계열 예측 과업에 적용시키려는 노력들이 많이 이루어질 것 같은데, 제대로된 Alignment를 시도한 초석을 잘 마련했다는 생각이 드는 논문이었습니다. 그러나 질문 과정에서도 계속 언급했었던 LLM의 입력으로 활용하는 프롬프트의 구성 의도에 대한 좀 더 친절한 설명이 논문에 포함되어 있었다면 좋겠다는 생각이 들었습니다. 좋은 발표 해주셔서 감사합니다.


  • 2025-07-15 12:21

    이번 세미나에서는 시계열 예측에 LLM을 적용할 때 발생하는 “임베딩 얽힘(entanglement)” 문제를 정면으로 조명한 점이 특히 와닿았습니다. 발표된 논문 TimeCMA: Towards LLM‑Empowered Multivariate Time Series Forecasting via Cross‑Modality Alignment는 언어와 시계열이 모두 순차적 특성을 지닌다는 공통점이 있지만, LLM에 그대로 입력했을 때 시계열 고유의 주기성·추세·이상치 등이 언어 정보에 묻혀버릴 수 있다는 근본적 문제를 명확히 짚었습니다.

    특히 TimeCMA의 dual modality encoding 구조가 인상 깊었습니다. 하나의 브랜치에서는 시계열 데이터만을 입력해 ‘순수하지만 임베딩이 약한 표현’을, 다른 하나에서는 같은 데이터를 텍스트 프롬프트화해 LLM을 통해 ‘강력하지만 얽힌 표현’을 각각 추출하는 전략이 매우 창의적이었다고 느꼈습니다 . 또한 cross‑modality alignment 모듈이 채널 유사도 기반으로 프롬프트 임베딩에서 시계열 정보만 정제해 가져오는 과정에서 ‘두 모달리티의 장점을 모두 활용한다’는 인상을 주었습니다. 더불어, 마지막 토큰만 저장해 가져오는 방식으로 추론 속도와 계산 효율성을 극대화한 설계도 현실적이고 실용적이라고 느꼈습니다 .

    발표를 들으며 단순히 언어 모델의 sequential 특성만을 믿고 시도하기보다는, 데이터의 본질적인 구조와 모달리티 차이를 존중하며 정교히 설계하는 것이야말로 실제 성능과 효율을 모두 잡는 핵심이라는 깨달음을 얻을 수 있었습니다. 좋은 발표 준비해 주셔서 감사합니다.


  • 2025-07-18 16:14

    Multivariate time-series forecasting 분야에서 기존 LLM 기반 방법들이 시계열 임베딩과 프롬프트 임베딩 간의 data entanglement 문제로 인해 아직 성능 한계가 있음을 이번 세미나를 통해 알게 되었습니다. 해당 논문에서 이를 개선하기 위해, dual-modality encoding과 cross-modality alignment(CMA) 모듈을 제안하여, 시계열 임베딩은 disentagled yet weak, 프롬프트 임베딩은 entangled but robust한 특징을 각각 학습한 뒤, 채널 단위 유사도 기반으로 프롬프트 임베딩에서 분리 및 강건한 시계열 특징을 retreive해 결합했습니다. 결과적으로 8개 데이터셋에서 SOTA 성능을 일관되게 달성한 것이 인상적이었으며, 특히 마지막 토큰을 저장하여 파라미터 수와 추론 속도 측면에서 모두 개선을 이룬 것이 좋았다고 생각합니다. 다만, 최신 연구임에도 GPT-2를 사용한 점 때문에 최근의 대규모 LLM을 사용했을 때나, 더 복잡한 시계열 데이터로 실험했을 때의 일반화 능력이 어떨지는 추가 검증이 필요해 보입니다. 또한 프롬프트 설계 역시 다른 데이터셋에 대해 범용적으로 작동할 지도 궁금했습니다. 흥미로운 연구 소개 감사합니다!


  • 2025-07-18 16:32

    이번 세미나는 “TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment” 논문으로 진행되었습니다. 최근 시계열 예측 과업에 대형 언어 모델(LLM)을 접목하려는 시도가 많아지고 있는 가운데, 해당 논문은 기존 LLM 기반 접근법들이 겪는 data entanglement 문제와 높은 계산 비용, 느린 추론 속도 등의 한계를 개선하고자 한 점이 특히 흥미로웠습니다.
    TimeCMA는 시계열 데이터와 텍스트 프롬프트를 각각 독립된 브랜치로 인코딩한 뒤, 채널 단위의 유사도 기반 정렬(Cross-Modality Alignment)을 통해 두 모달리티의 장점을 통합하는 방식으로 구조화되어 있습니다. 기존 방식들이 LLM의 표현력에 과도하게 의존하면서 시계열의 고유한 구조적 특성을 희석시키는 경향이 있었던 반면, 이 방법론은 두 표현 사이의 정렬을 별도로 학습하여 시계열의 순차성과 주기성 같은 정보가 보다 명확히 반영될 수 있도록 설계된 점이 인상적이었습니다. 특히 마지막 토큰만을 활용해 효율성을 극대화한 추론 구조는 실용적인 측면에서도 잘 고려된 요소라고 느꼈습니다. 다만, 논문에 활용된 모델이 GPT-2 기반이라는 점에서 최근의 대형 LLM을 적용했을 때에도 성능이 일관될지, 그리고 다양한 시계열 도메인에 대해 프롬프트 구조가 범용적으로 작동할 수 있는지에 대한 후속 검증은 추가적으로 이루어질 필요가 있다고 생각했습니다. 그럼에도 불구하고, 시계열과 텍스트라는 두 모달리티 간의 정렬을 중심에 두고 설계된 구조는 앞으로의 LLM 기반 시계열 예측 연구에 하나의 방향성을 제시해준 의미 있는 시도라고 생각됩니다. 좋은 발표 감사합니다!


  • 2025-07-21 09:42

    이번 세미나에서는 “TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment” 논문을 소개해주셨습니다. 본 논문은 기존의 LLM 기반 다변량 시계열 예측 방법에서 나타나는 데이터 얽힘(data entanglement) 문제, 높은 계산 비용 및 느린 추론 속도를 해결하고자, dual-modality encoding과 cross-modality alignment(CMA) 모듈을 제안했습니다. TimeCMA는 시계열과 프롬프트를 각각의 modality로 나누어 별도로 인코딩한 후, 채널 단위 유사도를 통해 두 modality의 특징을 효과적으로 결합하여 성능을 높였습니다. 특히, 시계열 임베딩은 disentangled되었지만 상대적으로 약하고, 프롬프트 임베딩은 entangled되었지만 robust한 특성을 지니고 있어, 이 둘을 적절히 활용한 구조가 인상적이었습니다. 결과적으로 다양한 데이터셋에서 SOTA 성능을 달성한 점과 파라미터 수 및 추론 속도 측면에서의 개선도 매우 긍정적으로 보였습니다. 다만, GPT-2와 같은 비교적 작은 모델을 사용한 만큼, 향후 더 복잡한 데이터나 최근의 대규모 LLM을 활용했을 때의 성능이나 프롬프트 구성의 일반화 가능성에 대한 추가적인 검증은 필요할 것으로 보입니다. 좋은 발표 감사합니다.


  • 2025-07-21 19:45

    금일 세미나는 시계열 도메인에서 LLM과 시계열 모델의 representation을 align하기 위한 방법론을 제시한 “TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment”을 중심으로 진행되었습니다. 해당 논문에서는 최근 LLM을 통해 데이터와 관련된 다양한 메타 정보를 함께 입력하는 방식들이 제안되고 있으나, 그 과정에서 시계열 인코더와 representation이 섞이게 되어 성능이 충분히 개선되지 않는다고 주장하고 있습니다. 이에 두 모델이 개별적인 representation을 산출하고 이를 cross-attention을 통하여 연결하는 방식을 제안합니다. 제안 구조가 매우 직관적이고 단순한데 비해 실제로는 TimeLLM 등 타 방법론 대비 뚜렷하게 뛰어난 성능을 보여주고 있습니다. 결과적으로 높은 성능을 산출할 수 있는 모델 구조임에는 동의하지만, 실제 해당 방법론이 representation을 disentangle할 수 있다는 주장이나, 기존 방법론들은 entangle되어 있다는 주장은 다소 근거가 빈약한 주장이라고 생각되었습니다. 또한, 방법론 내부적으로 Prompt Encoder가 존재하는 등 구조적인 하이퍼파라미터 서치가 강하게 개입된 인상을 지울 수 없었습니다. 그럼에도 시계열 분야에서 LLM이 잘 활용되기 위해서는 적절한 representation align이 필요하다는 점을 알 수 있었던 논문이었습니다. 좋은 발표 감사합니다.


  • 2025-07-23 11:28

    이번 세미나에서는 "TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment" 라는 주제로 진행되었습니다.
    기존 LLM 기반 시계열 예측에서 흔히 나타나는 데이터 얽힘(Data Entanglement) 문제와 과도한 계산 비용, 느린 추론 속도를 해결하기 위해 TimeCMA라는 프레임워크가 제안된 점이 인상적이었습니다. 다만 언어모델을 GPT-2를 사용한 것에 대한 이유를 명확히 언급하지 않았고, 수식을 서술하는 부분도 모호한 부분이 있어서 아쉬웠습니다. 그럼에도 LLM과 시계열 예측을 유연하게 연결한 연구라는 점에서 의미가 깊었으며, 이후 시계열 예측 분야 내 LLM 응용 발전의 좋은 출발점이 될 것 같습니다. 좋은 발표 준비해주셔서 감사합니다.


  • 2025-07-23 11:38

    이번 세미나에서는 멀티모달 시계열 예측을 위한 방법론을 제시한 논문인 "TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment"을 중심으로 진행되었습니다. 본 논문은 시계열 데이터를 LLM 기반 프롬프트와 정렬하여 보다 정교한 예측을 수행할 수 있도록 하는 Cross-Modality Alignment 방식을 제안합니다. 특히 시계열 인코더와 프롬프트 인코더에서 얻은 정보를 채널 단위로 유사도 기반 정렬을 통해 통합하고, 마지막 토큰 정보를 저장해 추론 효율도 높입니다. 실험 결과 기존 Time-LLM, UniTime, PatchTST 등 다양한 베이스라인 대비 의미 있는 성능 향상을 보였으며, attention 시각화와 ablation study를 통해 제안 방식의 효과도 검증하였습니다. 시계열 데이터를 효과적으로 요약하고, 이를 프롬프트 정보와 연계하는 구조가 인상적이었던 발표였습니다.


  • 2025-07-26 19:59

    금일 세미나는 TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment 논문을 바탕으로 진행되었습니다. 해당 연구는 기존의 순차적인 시계열 임베딩 방식에 더해, 추가적인 텍스트 정보를 제공할 수 있는 LLM을 활용하여 시계열 예측 과업을 수행하고자 합니다. 특히, LLM 기반의 이중 모달리티 임베딩 과정에서 발생할 수 있는 데이터 간 얽힘(entanglement) 문제를 해결하기 위해, 보다 분리된(disentangled) 임베딩을 학습할 수 있는 프레임워크를 제안합니다. 제안된 프레임워크는 세 가지 주요 모듈로 구성됩니다. 먼저, Dual-Modality Encoding 모듈에서는 입력 시계열과 프롬프트에 대해 각각 효과적으로 임베딩을 학습할 수 있도록 시계열 인코딩 분기와 LLM 기반 인코딩 분기로 나누어 구성됩니다. 이후 Cross-Modality Alignment 모듈에서는 채널 단위 유사도를 기반으로 두 모달리티 간 정렬을 수행하고, 프롬프트 임베딩으로부터 시계열 임베딩을 정렬하여 추출합니다. 마지막으로 Time Series Forecasting 모듈에서는 정렬된 시계열 임베딩을 디코딩한 후, projection layer를 통해 최종적인 예측값을 생성합니다. 최근에는 LLM이 가지는 강력한 텍스트 이해 능력과 순차적 모델링 능력을 시계열 예측 과업에 접목하려는 연구들이 활발히 진행되고 있습니다. 이러한 흐름 속에서 본 논문은 시계열-텍스트 간의 효과적인 정렬과 표현 학습이라는 측면에서 의미 있는 시사점을 제공했다고 생각합니다. 좋은 연구를 소개해주셔서 감사드립니다.


  • 2025-07-29 12:41

    이번 세미나에서는 “TimeCMA: Towards LLM‑Empowered Multivariate Time Series Forecasting via Cross‑Modality Alignment” 논문이 소개되었습니다. 본 연구는 대형 언어 모델(LLM)의 강력한 표현 능력을 시계열 예측에 활용하기 위해, 텍스트 기반 설명과 숫자 기반 시계열 데이터 사이를 정렬하는 새로운 접근 방식인 Cross‑Modality Alignment(CMA)을 제안합니다. 발표는 먼저 시계열 예측에 대한 전통적인 접근이 수치 데이터 자체에만 집중하는 경향이 있다는 점을 짚으며, LLM이 가진 언어 기반 설명과 맥락을 예측 과정에 통합하는 가능성에 주목한 것으로 시작되었습니다. 이어서 TimeCMA가 내외생 변수, 설명 텍스트, 시간 특성 등을 통합적으로 정렬하여 예측에 활용할 수 있는 구조임을 설명해 주셨습니다. 핵심적으로, TimeCMA는 LLM을 통해 생성된 자연어 설명(tokens)을 시계열 데이터를 정렬하는 매개체로 활용하며, 이를 정량적 특성에 매핑하는 CMA 모듈을 중심으로 설계되었습니다. 이를 통해 LLM이 제공하는 풍부한 의미 정보를 시계열 예측 모델에 효과적으로 주입할 수 있게 됩니다. 발표에서는 특히 설명이 포함된 예시 시나리오와 함께 CMA가 텍스트와 수치 간의 관계를 정밀하게 매핑하는 과정을 단계별로 보여주셔서 이해가 쉬웠습니다. 이번 연구는 LLM과 시계열 모델 간의 경계를 허물고, 언어 기반 지식과 구조화된 예측 모델을 결합하는 새로운 통합 방향을 제시한 점에서 의미가 컸습니다. 특히, 해석 가능성이 중요한 실무 환경에서 텍스트 설명과 예측값이 연동될 경우 사용자 신뢰를 높일 수 있는 가능성도 엿볼 수 있었습니다.


전체 532
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 13121
관리자 2020.03.12 0 13121
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 11894
관리자 2020.03.12 0 11894
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 12882
관리자 2020.03.12 0 12882
519
[Paper Review] From Local to Global: A GraphRAG Approach to Query-Focused Summarization (8)
Doyoon Kim | 2025.08.15 | 추천 0 | 조회 582
Doyoon Kim 2025.08.15 0 582
518
[Paper Review] AutoUAD: Hyper-parameter Optimization for Unsupervised Anomaly Detection (5)
Woojun Lee | 2025.08.12 | 추천 0 | 조회 334
Woojun Lee 2025.08.12 0 334
517
[Paper Review] Prototype-oriented unsupervised anomaly detection for multivariate time series (10)
Suyeon Shin | 2025.08.08 | 추천 0 | 조회 589
Suyeon Shin 2025.08.08 0 589
516
[Paper Review] HDMixer: Hierarchical Dependency with Extendable Patch for Multivariate Time Series Forecasting (11)
Sunghun Lim | 2025.08.04 | 추천 0 | 조회 458
Sunghun Lim 2025.08.04 0 458
515
[Paper Review] Multi-Scale Finetuning for Encoder-based Time Series Foundation Models (9)
Hyeongwon Kang | 2025.07.29 | 추천 0 | 조회 643
Hyeongwon Kang 2025.07.29 0 643
514
[Paper Review] Recent Research Trends in Video Anomaly Detection (11)
Jaehyuk Heo | 2025.07.27 | 추천 0 | 조회 695
Jaehyuk Heo 2025.07.27 0 695
513
[Paper Review] Introduction to PINN (Some basic concepts and research directions) (11)
Hankyeol Kim | 2025.07.18 | 추천 0 | 조회 2199
Hankyeol Kim 2025.07.18 0 2199
512
[Paper Review] TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment (10)
Sieon Park | 2025.07.14 | 추천 0 | 조회 758
Sieon Park 2025.07.14 0 758
511
[Paper Review] Exploring Intrinsic Normal Prototypes within a Single Image for Universal Anomaly Detection (9)
Subeen Cha | 2025.07.10 | 추천 0 | 조회 505
Subeen Cha 2025.07.10 0 505
510
[Paper Review] Theory of Everything (About Sequence Modeling with DL Models…) (14)
Jaewon Cheon | 2025.06.27 | 추천 0 | 조회 746
Jaewon Cheon 2025.06.27 0 746

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 김도윤: doyooni303@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호