[Paper Review] ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced

Paper Review
작성자
Jihun Nam
작성일
2025-09-02 15:14
조회
747
  1. 논문 제목 :ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced
  2. 논문 링크 : https://arxiv.org/pdf/2502.07601
  3. 인용 수 : 18회(2025년 9월 2일 기준)
  4. 요약
    • 실제 시계열-텍스트 데이터 부족 문제를 극복하기 위해 속성 기반 합성 시계열 생성(Attribute-based Generator)과 Time Series Evol-Instruct(TSEvol) 기법을 도입하여 다양한 질의응답(Q&A) 데이터를 합성
    • Context-Aware Encoder를 사용하여 다변량 시계열(multivariate time series)을 효율적으로 인코딩하고, Value-Preserved Normalization을 통해 정규화 과정에서도 원래의 수치적 의미를 보존
  5. 발표 자료 및 영상
    • 발표 자료: 하단 첨부
    • 발표 영상: 추후 첨부 예정
전체 15

  • 2025-09-15 15:14

    이번 세미나에서는 “ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced” 논문에 대해, 시계열 데이터를 LLM과 정렬시키기 위한 새로운 접근 방식을 소개해주셨습니다. 이 연구는 LLM이 시계열 예측이나 분석 작업에 바로 활용되기 어려운 이유가, 텍스트 기반 구조와 시계열 신호 구조 간의 표현 차이에 있다는 문제의식에서 출발합니다. 이를 해결하기 위해, 시계열 패턴을 자연어 형태로 변환한 합성 텍스트 데이터를 생성하고, 이를 통해 LLM이 시계열의 특징을 더 잘 이해하도록 정렬(alignment)시키는 전략을 제안한 점이 흥미로웠습니다. 발표에서는 다양한 시계열 패턴을 설명하는 자연어 데이터를 자동 생성하는 방식과, 이를 LLM에 반복적으로 학습시켜 시계열 신호의 구조적 특성을 자연스럽게 익히도록 하는 과정이 잘 설명되었습니다. 특히, 합성 데이터를 활용해 LLM이 시계열의 추세, 변동, 주기성과 같은 핵심 속성을 언어적으로 해석할 수 있도록 유도한다는 점이 인상적이었습니다. 이러한 접근은 별도의 복잡한 모델 구조 없이도 LLM을 시계열 작업에 적합하게 조정할 수 있다는 장점이 있어 실용적인 관점에서도 의미가 컸습니다. 이번 발표는 시계열과 LLM의 간극을 ‘합성 텍스트’라는 매개로 좁혀가는 흥미로운 시도였으며, 앞으로 시계열 분석에서 LLM을 활용하는 다양한 가능성을 기대하게 해주었습니다. 좋은 발표 감사합니다!


  • 2025-09-02 23:05

    이번 세미나에서는 “ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning” 논문이 발표되었습니다. 이 논문는 산업 시계열 데이터와 문서 간의 reasoning을 위한 데이터셋 부족이라는 한계를 해결하기 위해 시계열 속성 기반 합성 데이터 생성 기법과 instruction 방식을 제안합니다. 다양한 시계열 속성을 먼저 정의한 뒤 랜덤 샘플링을 통해 속성이 반영된 시계열 데이터를 생성하고 이를 Evol-Instruct 기법으로 확장하여 QA 형식으로 발전시켜 reasoning 학습이 가능하도록 설계했습니다. 또한, reasoning 성능을 평가하기 위해 직접 데이터를 수집 및 라벨링한 점이 인상 깊었습니다. 해당 논문은 시계열뿐만 아니라 이미지 이상 탐지 분야에도 확장 가능성이 있는 연구라 흥미롭게 읽을 수 있었습니다. LLM을 활용하는 방법론과 가능성 측면에서는 의미 있는 방향을 제시했지만 reasoning을 위한 일부 아이디어를 제외하면 기존 LLM 프롬프팅 연구와 유사한 연구 방향이 있다고 생각들어 아쉬움이 있었습니다. 좋은 논문을 소개해 주셔서 감사합니다.


  • 2025-09-03 11:21

    이번 세미나에서는 “ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning” 논문이 소개되었습니다. 이 연구는 시계열 데이터와 LLM을 결합해 정렬(Alignment)과 추론(Reasoning)을 가능하게 하는 새로운 프레임워크를 제안한 것이 핵심이었습니다. 발표에서는 먼저 다양한 속성(추세, 주기성, 잡음 등)을 기반으로 현실적인 합성 데이터를 생성하는 Attribute-based Generator를 소개했고, 이어서 Seed QA를 점진적으로 확장해 복잡한 추론 과제를 만들어내는 Time-series Evol-Instruct(TSEvol) 기법을 설명했습니다. 마지막으로 Context-Aware Encoder와 Value-Preserved Normalization을 적용한 TS-MLLM 구조를 통해 시계열 데이터의 특성을 보존하면서 언어 모델과 효과적으로 결합하는 방법이 제시되었습니다. 실험 결과, ChatTS는 GPT-4o, Qwen2.5 등과 비교했을 때 Reasoning 성능에서 30% 이상 개선된 모습을 보여주었고, 특히 Oracle Database 이상 탐지 case study에서 실제 적용 가능성을 보여준 점이 인상 깊었습니다. 무엇보다 합성 데이터를 단순히 무작위로 만드는 것이 아니라 다양한 속성을 세밀하게 설계해 현실성을 높였다는 점이 흥미로웠고, Evol-Instruct 방식을 시계열 QA에 적용해 모델의 추론 능력을 단계적으로 확장한 부분도 인상적이었습니다. 하지만, 합성 데이터에 의존하는 비중이 크다 보니 실제 산업 데이터의 복잡성과 불규칙성을 얼마나 잘 반영했을지는 다소 의문이 남았습니다. 또한 방법론 자체는 참신했지만, 프롬프팅 전략이나 LLM 결합 방식은 기존 연구와 크게 다르지 않다는 점이 조금 아쉬웠습니다. 실험 데이터셋도 AIOps, 날씨, 시스템 로그 등 특정 도메인에 치중되어 있어서, 더 다양한 산업 사례로 확장 가능성을 보여주었다면 더 설득력이 있었을 것 같다는 생각이 들었습니다.
    종합적으로 이번 세미나에서는 시계열 데이터와 LLM을 효과적으로 연결하려는 의미 있는 시도를 다룬 좋은 발표였습니다. 단순히 이론적인 이야기에서 그치지 않고 실제 응용 사례까지 함께 다루어 연구의 실용적 가치까지 확인할 수 있었던 점이 좋았습니다. 좋은 논문을 소개해주셔서 감사합니다.


  • 2025-09-03 15:41

    이번 세미나는 최근 많이 연구되고 있는 시계열 분야에 LLM을 적용하는 과정에서 시계열과 텍스트 간 정렬된 학습 데이터가 부족하여 발생하는 한계점을 개선하기 위해 새로운 시계열 멀티모달 LLM인 TS-MLLM을 제안한 “ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced”이라는 논문에 대한 발표를 중심으로 진행되었습니다. 해당 논문에선 이를 위해 시계열의 패턴과 속성을 언어의 형태로 설명하고, 추론하기 위해 설계된 다양한 질의응답 데이터를 생성합니다. 또한 Context-Aware Encoder를 활용하여 시계열 데이터를 효율적으로 인코딩하고, 정규화 과정을 통해 실제 수치가 가지는 의미를 최대한 보존하는 방식을 선택합니다. 결론적으로는 시계열의 전반적인 추세뿐만 아니라 local fluctuation과 수치적 특징을 이해하고, 이를 통해 자연어 기반의 추론을 수행하는 모델을 구성합니다. 처음 시계열 분야에서의 LLM 결합 방식들을 보았을 때는 이게 과연 될까?라는 생각이 들었던 것이 사실이었는데 점점 다양한 방법들이 연구되고, 이번 연구처럼 MLLM 모델까지 연구되는 것을 보면서 왜 시계열 데이터 분야에서 LLM을 적용싶어하고 , 어떤 가치를 만들 수 있는지를 알 수 있었던 시간이었습니다. 좋은 발표 해주셔서 감사합니다.


  • 2025-09-04 16:41

    이번 세미나에서는 "ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced"논문에 대해 소개해주셨습니다. 해당 논문은 시계열과 LLM을 연결하려는 최근 연구 흐름 속에서, 실제 데이터 부족 문제를 합성 데이터로 풀어낸 점이 인상 깊었습니다. 또한 Context-Aware Encoder로 다변량 시계열을 효율적으로 인코딩하고, Value-Preserved Normalization으로 정규화 과정에서도 수치적 의미를 보존하려 한 시도는 실용적인 부분에서도 중요한 기여라고 생각합니다. 실험 결과에서도 기존 텍스트, 비전, 에이전트 기반 방법들과 비교했을 때 ChatTS가 alignment와 reasoning 모두에서 우수한 성능을 보인 점이 설득력이 있었습니다. 전반적으로 ChatTS는 합성 데이터 기반 학습과 LLM을 접목시켜 시계열-텍스트 패러다임을 확장하는 의미 있는 시도라고 느꼈습니다. 저도 해당 분야에 대해 관심을 가지고 연구를 진행하고 있는데 이번 논문을 통해 많은 인사이트를 얻은 것 같습니다. 좋은 발표 감사합니다!


  • 2025-09-05 10:52

    이번 세미나는 "ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning" 논문에 대해 소개해 주셨습니다. 해당 논문은 우선 Attribute-based Generator를 통해 trend, periodicity, noise 등 여러 속성을 정의해 합성 시계열 데이터를 만들고, ChatTS 모델을 생성된 해당 데이터로 학습했습니다. 이와 더불어 TSEvol에서는 다양한 Q&A 데이터를 자동 생성하고 이를 이용해 모델의 reasoning 능력을 키우는 부분이 인상 깊었습니다. 해당 과정에서 모델이 단순한 패턴 인식이 아닌 인과 추론이나 이상 탐지까지 수행할 수 있을 가능성을 보여줍니다. ChatTS는 Context-Aware TS Encoder, Value-Preserved Normalization, Text Encoder를 통해 시계열 데이터와 텍스트를 결합하여 직접 계산부터 인과 추론까지 지원하는 TS-MLLM으로 작동합니다. 하지만 결국 모델이 합성 데이터만을 이용하다 보니, 실세계의 불규칙성이나 anomaly 등을 포함하지 못할 것이라는 한계점이 있으리라 생각합니다. 이를 보완하기 위해 실제 데이터를 이용한 학습이 함께 이루어진다면 더 실용적인 연구가 될 수 있을 것 같습니다. LLM에 시계열 데이터를 align하려는 다양한 연구가 이루어지는 흐름에서 합성 데이터를 이용해서 접근한 점이 좋았습니다. 좋은 논문 소개해 주셔서 감사합니다.


  • 2025-09-05 15:43

    평소 LLM을 이용한 시계열 데이터 연구에 대해 막연한 의심을 갖고 있었는데, 본 세미나에서 소개된 ChatTS와 같이 다양한 연구들이 제안되고, 준수한 성능을 기록하는 것을 보며 가능성을 점차 체감해가는 것 같습니다. 시계열을 위한 TS-MLLM 구축을 위해 여타 모델들보다 데이터의 속성을 보다 세분화하여 (trend/seasonality/noise/local fluctuation) attribute-based TS generator로 시계열데이터를 생성하고, reasoning 능력 탑재를 위한 QA pairs를 TS Evol로 확보한 것은 LLM을 이용한 TS foundation model 학습을 위한 방법론으로 적합해보입니다. 또한 context-aware encoder로 수치 정보의 손실 없이 LLM을 시계열 도메인에 aligning 하는 것 역시 본질에 충실한 접근이라 느꼈습니다. LLM 의존성이 다소 높은 연구인 것 같기도 하지만, 다양한 task에 대한 성능과 설명력이 충분히 확보된다면 전통적인 시계열 모델들보다도 오히려 사용자 친화적인 실용성을 갖출 수 있다고 생각합니다. 좋은 발표 감사합니다.


  • 2025-09-05 15:44

    이번 세미나에서는 "ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Reasoning Understanding and Reasoning" 논문에 대해 소개해주셨습니다. 처음으로, 시계열 데이터와 비정형 데이터의 연결 필요성을 실제 산업 현장과 관련하여 말씀주신 점이 인상 깊었습니다. 논문에서는 기존 LLM이 텍스트 처리에 강하지만, 시계열 데이터 처리 및 reasoning에 한계가 있다고 말합니다. 이에 Attributed-based Generator로 다양한 속성을 조합하여 합성 시계열 데이터를 만들고, TSEvol을 통해 QA 데이터를 생성하여 LLM 학습에 활용했습니다. 이를 바탕으로 TS-MLLM을 설계하여 시계열 데이터와 자연어 추론을 효과적으로 결합했습니다. 학습의 경우, Qwen2.5-14B-Instruct 모델을 large-scale alignment trainig과 supervised fine-tuning으로 진행했으며, ChatTS가 reasoning task에서 기존 baseline 대비 큰 성능 향상을 이루었습니다. 이번 세미나를 통해 합성 데이터와 evolutionary instruction 기법이 LLM의 시계열 reasoning 성능을 크게 높일 수 있음을 확인할 수 있었습니다. 다만, 이 방법론은 합성 데이터에 대한 높은 의존성으로 인해 실제 도메인의 복잡한 시계열 패턴을 충분히 반영하지 못할 수 있다는 한계가 있다고 생각합니다. 좋은 발표 감사합니다.


  • 2025-09-06 10:43

    이번 세미나에서는 “ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning”이라는 논문이 다루어졌습니다. 해당 논문은 시계열을 하나의 독립형 모달리티로 인식한다는 점에서 기존의 LLM 접근과 확실히 차별화된다고 생각되었습니다. 특히 속성 기반 합성 데이터 생성과 Time-Series Evol-Instruct(TSEvol) 기법으로 다변량 시계열과 텍스트를 정확하게 연결해 reasoning 능력을 강화한 점이 인상적이었습니다. 또한 Context-Aware Encoder와 Value-Preserved Normalization으로 수치 의미를 유지하면서 효율적으로 인코딩한 설계도 기술적으로 깊이 있는 접근이었다고 생각됩니다. 성능 면에서도 눈에 띄는데, GPT-4o 등 기존 모델에 비해 alignment에서는 약 46%, reasoning에서는 약 26% 향상된 결과가 나왔다고 하니 실제 활용 가능성도 꽤 높다고 느꼈습니다. 다만 합성 데이터에만 의존하는 방식이 현실의 복잡한 시계열 특성을 충분히 반영했는지는 조금 더 검증이 필요해 보이고, 다양한 도메인으로의 확장이나 실제 데이터를 활용한 추가 실험이 뒤따른다면 이 연구가 시계열-언어 통합 모델 분야에서 더 강한 이정표가 될 수 있을 것 같습니다. 전체적으로 합성 데이터 기반의 실용적이고 창의적인 시도라는 점에서 인상 깊었습니다. 좋은 발표 준비해 주셔서 감사합니다!


  • 2025-09-11 16:31

    이번 세미나에서는 "ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning" 라는 주제로 진행되었습니다. ChatTS는 시계열 데이터와 LLM(대형 언어 모델)간 데이터 정렬 부족 문제를 해결하고자, 속성 기반 합성 시계열 생성(속성 기반 Generator)과 TSEvol(Time Series Evol-Instruct) 기법을 통해 대량의 시계열-텍스트 질의응답 데이터를 창출한 점이 특징적이었습니다. 이를 기반으로, 단일/다변량 시계열을 직접적으로 입력받아 자연어로 정교한 설명·추론이 가능한 최초의 시계열 멀티모달 LLM(MLLM) 구조를 만들었다는 점에서 의미가 있었습니다. 최근 시계열 분야에서 LLM 및 멀티모달 접근을 확장하는 흐름 속에서, ChatTS는 합성 데이터 기반의 대규모 alignment, reasoning 가능 시계열 LLM 아키텍처의 실질적 가능성을 구체화한 좋은 사례였다고 생각합니다. 좋은 발표 준비해주셔서 감사합니다.


  • 2025-09-11 19:02

    이번 세미나에서는 "ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Reasoning Understanding and Reasoning" 논문에 대해 소개해주셨습니다. 시계열 데이터와 LLM의 결합이라는 새로운 접근법이 인상 깊었고, 특히 합성 데이터를 활용해 현실적인 Q&A 데이터를 생성하는 과정과 Context-Aware Encoder를 통해 수치적 의미를 보존하려는 시도가 인상적이었습니다. 실험 결과에서도 기존 모델 대비 뛰어난 성능을 보인 점이 설득력이 있었고, 앞으로 실제 산업 데이터에도 적용될 수 있을 것 같아 기대가 큽니다. 좋은 발표 감사합니다!


  • 2025-09-16 20:48

    이번 세미나는 시계열 데이터를 LLM과 결합해 정렬과 추론을 동시에 수행할 수 있는 ChatTS 모델을 다루었습니다. 단순히 시계열을 입력으로 넣는 것이 아니라, 속성 기반 시계열 생성기(Attribute-based Generator)와 Wizard-LM에서 영감을 받은 듯한 진화형 인스트럭션(TSEvol)을 통해 다양한 QA 데이터를 합성해 LLM을 학습시키는 방식이 인상적이었습니다. 특히 Context-Aware Encoder와 Value-Preserved Normalization으로 실제 시계열의 패턴을 보존하면서도 텍스트와 자연스럽게 연결했다는 점이 흥미로웠습니다. 다만 구조가 다소 복잡해 실제 활용 시 효율성 측면에서 부담이 있을 수 있다는 아쉬움이 남았습니다. 그럼에도 불구하고 다양한 Reasoning 태스크에서 기존 GPT-4 계열 대비 뚜렷한 성능 향상을 보여주었고, 실제 DB 이상탐지 사례를 통해 적용 가능성을 보였다는 점에서 의미 있는 연구라고 생각합니다. 발표 덕분에 LLM과 시계열의 융합 가능성을 다시금 확인할 수 있는 유익한 시간이었습니다.


  • 2025-09-12 15:14

    이번 세미나는 기존 LLM 모델에 대한 시계열 도메인 적용 시 텍스트-시계열 간의 상호 정보가 포함된 데이터의 부족을 해결하고자 한 "ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Reasoning Understanding and Reasoning"을 중심으로 진행되었습니다. 현실세계에서는 시계열 데이터를 다루면서도 입력이 텍스트로 활용될 수 있는 사례가 다수 존재합니다. 하지만 해당 상황에 대해 학습시킬 수 있는 고품질의 데이터를 획득하는 것은 매우 어렵고, 이를 해당 논문에서는 직접 생성하는 방법론을 취하고 있습니다. 이는 가능한 변수 조합을 이용하여 인공적인 시계열을 생성하고 이에 대한 자연어 QA 데이터를 구축하는 방식으로 기존의 Instruction Tuning 데이터 연구인 EvolInstruct를 기반으로 생성합니다. 이후 비전 분야와 비슷하게 별도의 시계열 인코더까지 함께 학습하는 방식으로 진행이 됩니다. 그 결과 기존의 LLM 및 에이전트들보다도 높은 성능을 보이면서 단순한 방식의 시계열 데이터만으로도 LLM의 성능을 개선시킬 수 있음을 확인할 수 있었습니다. LLM을 중심으로 다양한 분야가 조합되면서 각 분야별 데이터에 대한 이해도가 매우 필요한 것이 느껴지는 연구였습니다. 좋은 연구 감사합니다.


  • 2025-09-16 23:33

    금일 세미나는 “ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced …” 논문을 중심으로 진행되었습니다. 본 연구는 시계열과 텍스트가 정렬된 학습 데이터가 부족하여 LLM 활용에 제약이 있다는 문제의식을 바탕으로, 시계열–자연어 멀티모달 모델인 TS-MLLM을 제안하고 있습니다. 이를 위해 Attribute-based Generator와 Time-Series Evol-Instruct 기법을 도입하여 다양한 Q&A 데이터를 합성하고 있으며, Context-Aware Encoder를 활용하여 LLM이 이해하기 어려운 다변량 시계열 데이터를 효과적으로 인코딩합니다. 또한 Value-preserved Normalization 기법을 적용하여 정규화 과정에서도 원래 수치의 의미를 보존할 수 있도록 설계하였습니다. 최근 여러 분야에서 synthetic data 생성 방식에 관한 연구가 활발히 이루어지고 있는데, 본 연구는 시계열-자연어 데이터에서도 이러한 접근이 효과적으로 적용될 수 있음을 잘 보여주었다고 생각합니다. 좋은 발표 정말 감사드립니다.


  • 2025-09-14 15:14

    이번 세미나에서는 “ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced Understanding and Reasoning” 논문을 다루었습니다. 본 연구는 시계열 데이터를 LLM과 정렬(alignment)시키고 추론(reasoning) 능력을 강화하기 위한 ChatTS 프레임워크를 제안합니다. Attributed-based Generator를 통해 현실적인 합성 시계열 데이터를 생성하고, Time-Series Evol-Instruct(TSEvol) 기법으로 점진적인 QA 태스크를 구성해 LLM의 reasoning 능력을 학습시켰다는 점이 인상적이었습니다. 또한 Context-Aware Encoder와 Value-Preserved Normalization을 결합한 TS-MLLM 구조를 통해 시계열 데이터의 수치적 의미를 유지하면서 텍스트 표현과 정렬하는 방식도 논리적으로 설계되어 있었습니다. 실험 결과, ChatTS는 기존 LLM 기반 모델들보다 약 30% 높은 reasoning 성능을 보여 실제 응용 가능성도 입증했습니다. 다만 합성 데이터에 대한 높은 의존성이 실제 복잡한 산업 시계열의 특성을 충분히 반영할 수 있을지에 대해서는 검증이 필요해 보였습니다. 그럼에도 불구하고, ChatTS는 시계열과 LLM의 정렬 문제를 해결하기 위한 의미 있는 시도로, 향후 LLM 기반 시계열 분석 연구의 방향성을 잘 제시한 논문이라 생각됩니다. 좋은 발표 감사합니다.


전체 544
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 13862
관리자 2020.03.12 0 13862
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 12610
관리자 2020.03.12 0 12610
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 13532
관리자 2020.03.12 0 13532
531
비밀글 [Rehearsal] 석사학위 논문심사 - 천재원 (17)
Jaewon Cheon | 2025.11.18 | 추천 0 | 조회 40
Jaewon Cheon 2025.11.18 0 40
530
[Paper Review] Fully-Connected Spatial-Temporal Graph for Multivariate Time-Series Data (14)
Suyeon Shin | 2025.11.18 | 추천 0 | 조회 462
Suyeon Shin 2025.11.18 0 462
529
[Paper Review] Fusionformer: A Novel Adversarial Transformer Utilizing Fusion Attention for Multivariate Anomaly Detection (14)
Sunghun Lim | 2025.11.07 | 추천 0 | 조회 437
Sunghun Lim 2025.11.07 0 437
528
[Paper Review] AXIS: EXPLAINABLE TIME SERIES ANOMALY DETECTION WITH LARGE LANGUAGE MODELS (13)
Hyeongwon Kang | 2025.10.29 | 추천 0 | 조회 835
Hyeongwon Kang 2025.10.29 0 835
527
[Paper Review] Introduction to Discrete Diffusion Language Models. (15)
Jaehee Kim | 2025.10.24 | 추천 0 | 조회 856
Jaehee Kim 2025.10.24 0 856
526
[Paper Review] AutoTimes: Autoregressive Time Series Forecasters via Large Language Models (17)
Sieon Park | 2025.10.03 | 추천 0 | 조회 624
Sieon Park 2025.10.03 0 624
525
[Paper Review] DFM: Differentiable Feature Matching for Anomaly Detection (15)
Subeen Cha | 2025.09.24 | 추천 0 | 조회 727
Subeen Cha 2025.09.24 0 727
524
[Paper Review] SelfCheck: Using LLMs to Zero-Shot Check Their Own Step-by-Step Reasoning (15)
Siyul Sung | 2025.09.17 | 추천 0 | 조회 548
Siyul Sung 2025.09.17 0 548
523
[Paper Review] ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced (15)
Jihun Nam | 2025.09.02 | 추천 0 | 조회 747
Jihun Nam 2025.09.02 0 747
522
[Paper Review] Towards Zero-Shot Anomaly Detection and Reasoning with Multimodal Large Language Models (6)
Junyeong Son | 2025.08.28 | 추천 0 | 조회 1200
Junyeong Son 2025.08.28 0 1200

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 김도윤: doyooni303@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호