Topic
Overview
발표자료 및 발표영상
참고문헌
| 번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
| 공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 14850
|
관리자 | 2020.03.12 | 0 | 14850 |
| 공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 13602
|
관리자 | 2020.03.12 | 0 | 13602 |
| 공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 14545
|
관리자 | 2020.03.12 | 0 | 14545 |
| 551 |
[Paper Review] Programming Refusal with Conditional Activation Steering (12)
Sunmin Kim
|
2026.03.10
|
추천 0
|
조회 159
|
Sunmin Kim | 2026.03.10 | 0 | 159 |
| 550 |
[Paper Review] Towards a General Time Series Anomaly Detector with Adaptive Bottlenecks and Dual Adversarial Decoders (9)
Sunghun Lim
|
2026.03.01
|
추천 0
|
조회 209
|
Sunghun Lim | 2026.03.01 | 0 | 209 |
| 549 |
[Paper Review] Rethinking the Power of Timestamps for Robust Time Series Forecasting: A Global-Local Fusion Perspective (9)
Suyeon Shin
|
2026.02.25
|
추천 0
|
조회 154
|
Suyeon Shin | 2026.02.25 | 0 | 154 |
| 548 |
[Paper Review] Recent Research Trends Foundation Model for Visual Anomaly Detection (10)
Jaehyuk Heo
|
2026.02.12
|
추천 0
|
조회 345
|
Jaehyuk Heo | 2026.02.12 | 0 | 345 |
| 547 |
[Paper Review] Vision-based and Multimodal Approaches for Time Series Analysis (9)
Hyeongwon Kang
|
2026.02.10
|
추천 0
|
조회 320
|
Hyeongwon Kang | 2026.02.10 | 0 | 320 |
| 546 |
[Paper Review] Introduction to Neural Operator (10)
Hankyeol Kim
|
2026.02.03
|
추천 0
|
조회 388
|
Hankyeol Kim | 2026.02.03 | 0 | 388 |
| 545 |
[Paper Review] Enhancing Time Series Forecasting through Selective Representation Spaces: A Patch Perspective (13)
Sieon Park
|
2026.01.29
|
추천 0
|
조회 448
|
Sieon Park | 2026.01.29 | 0 | 448 |
| 544 |
[Paper Review] ELFS: Label-Free Coreset Selection with Proxy Training Dynamics (13)
Subeen Cha
|
2026.01.28
|
추천 0
|
조회 315
|
Subeen Cha | 2026.01.28 | 0 | 315 |
| 543 |
[Paper Review] Model Merging for Continual Learning (12)
Hun Im
|
2026.01.24
|
추천 0
|
조회 313
|
Hun Im | 2026.01.24 | 0 | 313 |
| 542 |
[Paper Review] Selective Learning for Deep Time Series Forecasting (14)
Jinwoo Park
|
2026.01.24
|
추천 0
|
조회 447
|
Jinwoo Park | 2026.01.24 | 0 | 447 |
이번 세미나에서는 “AXIS: Explainable Time Series Anomaly Detection with Large Language Models” 논문을 바탕으로, LLM을 활용해 시계열 이상을 탐지하고 그 이유를 자연어로 설명하는 방법을 소개해주셨습니다. 기존 시계열 이상 탐지 기법은 이상 여부 판단에는 강점이 있지만, 왜 그런 판단이 나왔는지를 명확하게 설명하는 데 어려움이 있다는 한계가 있었는데, AXIS는 이러한 문제를 해결하기 위한 흥미로운 접근을 제안합니다. 발표에서는 시계열의 추세 변화, 변동성 증가, 패턴 깨짐 등 중요한 구조적 정보를 먼저 정제해 LLM이 이해할 수 있는 형태로 변환하는 과정을 설명해주셨습니다. 이후 LLM이 이 정보를 바탕으로 이상 발생 구간을 식별하고, 그 이유를 자연어로 논리적으로 서술하는 방식이 소개되었는데, 단순히 이상 여부만 판단하는 것이 아니라 데이터의 맥락과 구조까지 고려해 설명을 제공한다는 점이 인상적이었습니다. 이번 연구는 시계열 이상 탐지에 설명 가능성을 실제로 더하는 방향을 제시하며, 산업·금융·의료와 같이 설명이 필수적인 환경에서 큰 활용 가능성을 보여준다는 점에서 의미가 컸습니다. 모델이 단순 검출기가 아니라 사용자에게 판단 근거를 전달하는 도구가 될 수 있음을 확인할 수 있었던 유익한 발표였습니다. 좋은 발표 감사합니다!
이번 세미나에서는 "AXIS: Explainable Time Series Anomaly Detection with Large Language Models" 논문을 소개해주셨습니다. 본 연구는 LLM이 시계열 데이터의 이상을 얼마나 정확하게 이해하고 설명할 수 있는지를 다루며, 특히 LLM이 시계열을 제대로 해석하지 못하게 만드는 구조적 한계를 매우 정교하게 짚어낸 점이 인상적이었습니다. 기존 접근 방식은 토큰 예산 제약 때문에 시계열 일부만 잘라 입력하거나 평균·표준편차 같은 통계적 요약치로 대체해 global context가 소실되는 문제가 존재합니다. 이를 해결하기 위해 저자들은 수치적 근거를 제공하는 symbolic numeric hint, 전체 패턴을 타깃 구간에 정렬해주는 context-integrated step-aligned hint, 설명 스타일을 일관되게 유지하는 task-prior hint라는 세 가지 힌트를 제안했습니다. 이 세 요소가 결합되어 LLM이 시계열 데이터를 하나의 언어처럼 이해하도록 구조화했다는 점이 흥미로웠습니다. 또한, 단순한 이상 탐지를 넘어 설명의 품질까지 평가할 수 있도록 구성된 semantic anomaly benchmark를 제안했습니다. 다만, 해당 벤치마크가 synthetic data 기반이기 때문에 실제 산업 환경에서 동일한 설명력을 유지할지는 추가 검증이 필요하다고 느꼈습니다. 그럼에도 AXIS는 시계열 데이터를 단순히 예측 대상이 아닌 해석 가능한 정보로 확장하려는 의미 있는 연구라는 점에서 깊은 인상을 남겼습니다. 좋은 발표 준비해주셔서 감사합니다.
이번 세미나는 "AXIS: Explainable Time Series Anomaly Detection with Large Language Models" 논문으로, LLM을 활용한 시계열 이상 감지 연구를 다루었습니다. 기존 LLM 기반 접근 방식의 한계는 global context를 충분히 활용하지 못하고 locality에만 의존한다는 점이었습니다. 이를 해결하기 위해 본 논문에서는 global context를 학습하는 time series encoder와, 생성된 embedding을 이해할 수 있도록 돕는 hint encoder를 추가한 구조를 제안하였습니다. 이러한 접근 방식은 문제 정의와 해결 방법이 매우 직관적이며, 시계열 특성 이해에 기반한 설계가 인상적이었습니다. 또한 제가 중요하게 생각했던 anomaly type을 구분할 수 있는 구조를 제안한 점도 흥미로웠습니다. 그러나 실험에서 인공 생성 데이터가 주로 활용되었고, 이러한 학습 전략이 실제 데이터에서도 anomaly type을 안정적으로 판별할 수 있을지에 대한 부분이 다소 아쉬웠습니다. 논문의 주요 기여는 단연 global context 활용이라고 생각되지만, 논문 제목에 explainable이라는 키워드가 포함되어 있는 만큼, 설명 가능성 측면에서 조금 더 명확한 기여가 있었더라면 좋았을 것 같습니다. 좋은 발표 준비해주셔서 감사합니다.
이번 세미나에서는 "AXIS: EXPLAINABLE TIME SERIES ANOMALY DETECTION WITH LARGE LANGUAGE MODELS" 라는 주제로 진행되었습니다. 이 연구는 LLM을 활용해 시계열 이상 탐지를 '설명'하는 방법론을 다루었습니다. 단순히 이상 점수를 알려주는 기존 방식에서 나아가 , "왜" 이상인지 자연어로 설명하는 것을 목표로 합니다. LLM을 직접 튜닝하지 않고, 세 가지 힌트(Hint)를 통해 시계열 데이터를 언어 공간에 효과적으로 매핑하는 방식이 핵심입니다. 단순 탐지가 아닌 '설명'의 영역으로 과제를 확장한 점이 인상 깊었습니다. 또한 LLM이 시계열의 '전체 맥락(Global Context)'을 놓치기 쉬운 문제를 해결한 방식도 좋았습니다. 별도의 인코더를 활용하여 LLM이 국소적인 데이터뿐만 아니라 시계열의 전반적인 흐름까지 함께 고려하도록 돕는 접근법이 인상적이었습니다. LLM과 시계열 데이터를 효과적으로 연결하는 방법을 제시한 의미 있는 연구였습니다. 좋은 발표 준비해주셔서 감사합니다.
이번 세미나는 시계열 이상 탐지 모델에 설명 가능성을 부여하기 위해 LLM을 활용하여 연속 구간 단위에 대한 “무엇이, 언제, 왜 이상인가”를 설명하는 AXIS라는 방법론을 제안한 “AXIS: EXPLAINABLE TIME SERIES ANOMALY DETECTION WITH LARGE LANGUAGE MODELS”이라는 논문에 대한 발표를 중심으로 진행되었습니다. 해당 방법론에서는 시계열을 LLM에 입력하는 과정에서의 토큰화 단계에서 발생하는 1) 일부 시계열만 입력하므로 발생하는 Global Context 상실 2) 사전 집계 정보를 사용함으로써 데이터 정보를 잃는 문제점을 지적합니다. 또한 기존 Point-Wise Anomaly Score를 예측하는 TSAD 모델이 사용자에게 해석 가능한 통찰을 주지 못한다는 한계를 극복하기 위해 연속된 구간에 대한 자연어 설명을 생성하는 것을 목적으로 합니다. 이를 달성하기 위해 본 연구에서는 LLM을 직접 미세 조정하진 않고, 3가지 힌트를 활용하여 숫자 형태의 시계열 데이터를 언어 공간에 매핑시키는 방법을 사용합니다. 또한 Semantic Anomaly Benchmark를 새롭게 구축해 다양한 이상 패턴과 질문 유형을 평가합니다. 그러나 생성된 Benchmark의 퀄리티를 평가할 수 있는 방법이 아직까지 명확하지 않다는 한계점이 있다는 생각이 들었습니다. 좋은 발표 해주셔서 감사합니다.
이번 세미나는 시계열 이상탐지를 단순한 수치적 예측에서 벗어나, “무엇이, 언제, 왜 이상인가”를 설명할 수 있는 의미적 해석 과제로 확장한 점이 인상 깊었습니다.
기존 LLM 기반 TSAD가 시점 단위(point-wise) 탐지에 머물렀던 한계를, 세 가지 힌트(Symbolic Numeric, Context-Integrated Step-Aligned, Task-Prior)를 통해 구조적으로 보완한 점이 특히 흥미로웠습니다.
LLM을 직접 fine-tuning하지 않고 soft prompt 기반의 hint-tuning으로 시계열의 수치 패턴을 언어 공간에 정렬했다는 접근은 실용적이면서도 창의적이라고 느꼈습니다. 또한 새로 제안된 Semantic Anomaly Benchmark를 통해 모델의 설명 품질을 인간 전문가 수준에서 평가한 점도 돋보였습니다.
전체적으로 AXIS는 단순히 이상을 “탐지하는 모델”이 아니라, 이상의 원인을 논리적으로 해석하고 설명할 수 있는 지능형 해석자(semantic interpreter)로 LLM의 가능성을 잘 보여준 연구라고 생각합니다. 좋은 발표 준비 해주셔서 감사합니다!
이번 세미나는 “AXIS: Explainable Time Series Anomaly Detection with Large Language Models” 논문을 중심으로 진행되었으며, 시계열 이상 탐지(TSAD) 문제를 단순 탐지에서 무엇이, 언제, 왜 이상인가를 설명하는 수준으로 확장한 점이 인상 깊었습니다. LLM을 직접 fine-tuning하지 않고도 세 가지 힌트를 통해 시계열 데이터를 언어 공간에 효과적으로 매핑한 접근이 흥미로웠습니다. 특히 기존 Point-wise 기반 이상 탐지 방식의 한계를 넘어, 연속 구간 단위로 Global Context를 반영하며 이상 원인을 해석하려는 구조적 설계가 돋보였습니다.
또한 Hint Encoder와 Time-series Encoder의 역할 분리를 통해 LLM이 단순한 데이터 패턴이 아니라 문맥적 의미를 파악할 수 있도록 설계한 부분이 인상적이었습니다. Semantic Anomaly Benchmark를 새로 구축하여 모델의 ‘설명력’을 검증하려 한 시도도 의미 있다고 생각합니다. 다만 아직 실제 산업 데이터에 대한 검증이 충분히 이뤄지지 않았다는 점과, 'explainable'이라는 제목 대비 구체적인 설명 품질 측정 지표가 부족하다는 점은 향후 개선 여지가 있는 부분으로 느껴졌습니다.
전반적으로 LLM과 시계열 분석을 자연스럽게 연결하며, 이상 탐지를 예측에서 설명으로 확장한 연구라는 점에서 큰 인사이트를 얻을 수 있던 발표였습니다. 좋은 발표 준비해주셔서 감사합니다.
이번 세미나는 시계열 이상 탐지를 ‘설명 가능한 형태’로 확장할 수 있는가? 라는 질문에 답하고자 한 AXIS 논문을 다루었습니다. 발표를 들으며 흥미로웠던 부분은, 이 연구가 이상 탐지를 단순한 점수 산출 문제가 아닌 의사결정 과정에서 활용 가능한 정보 전달 문제로 바라본 관점이었습니다. 즉, “이 구간이 이상입니다”에서 멈추지 않고, “어떤 패턴의 변화가 어떤 맥락에서 이상으로 해석되는가”를 언어적으로 풀어내려는 시도 자체가 의미 있게 느껴졌습니다. AXIS가 제안하는 두 가지 핵심 구성 요소는 다음과 같습니다.
1. Time Series Encoder를 통해 전체 시계열의 흐름을 요약하고,
2. Hint Encoder를 통해 LLM이 시계열 패턴을 해석할 수 있도록 중간 표현을 제공한다는 점입니다.
즉, LLM이 수치 데이터 자체를 이해한다기보다는, 시계열 구조를 언어적 맥락으로 변환하는 과정을 설계한 연구라고 볼 수 있었습니다. 이는 모델을 직접 미세 조정하지 않고도 기존 LLM의 추론 능력을 활용할 수 있다는 점에서 장점이 있다고 생각됩니다. 다만, 세미나를 들으며 개인적으로 가장 궁금했던 부분은 설명 품질이 실제 의사결정에 도움이 되는가? 라는 부분이었습니다. 논문에서는 Semantic Anomaly Benchmark를 구축하여 설명력을 평가하려 했지만, 해당 벤치마크가 실제 도메인 전문가 평가와 얼마나 대응하는지에 대한 근거가 더 명확했으면 좋겠다는 생각이 들었습니다. 또한 실험 데이터의 상당 부분이 인공 생성 데이터에 기반하고 있어, 실제 환경에서 발생하는 복잡한 이상 패턴을 얼마나 견딜 수 있을지는 앞으로 더 검증이 필요해 보입니다.
정리하면, AXIS는 시계열 분석에서 예측 → 탐지 → 설명으로 이어지는 흐름 속에서, LLM이 어떤 역할을 할 수 있는지 잘 보여준 사례였습니다. 단순히 “LLM을 시계열에 적용한다”가 아니라, 어떻게 적용해야 의미 있는 해석이 가능한가를 구체적으로 제시해준 점이 이 연구의 가장 큰 기여라고 느꼈습니다. 좋은 발표 준비해주셔서 감사합니다.
금일 세미나는 “AXIS: Explainable Time Series Anomaly Detection with Large Language Models”논문을 바탕으로 진행되었습니다. 이는 최근 시계열 분야에서 주목받고 있는 연구 분야 중 하나인 LLM 기반 시계열 모델링을 이상 탐지 분야에서 적용하고 있는 연구였습니다. 이때, 단일 시점이 아닌 연속 구간을 단위로 하여 “무엇이, 언제, 왜 이상인가”를 설명하는 task로 확장하며, LLM을 직접 fine-tuning하지 않고 세 가지 힌트를 통해 시계열 데이터를 언어 공간에 효과적으로 매핑하고 있습니다. 또한, 새로 구축한 semantic anomaly benchmark로 다양한 이상 패턴과 질문 형식을 평가할 수 있도록 제안합니다. 전통적인 시계열 이상탐지 모델은 시계열 길이 T에 대해 각 시점마다 이 시점이 이상인지 아닌지를 나타내는 point-wise anomaly score를 사용하는데, 실제 사용자들의 입장에서는 실제 이상은 연속된 구간에 걸쳐 나타나는 경우가 많기에 이 구간이 왜 이상인지를 이해하는데 관심을 가질 수 있다는 전제로, 목표 구간을 도입해 그 구간에 대한 자연어 설명을 생성하는 것을 목표로 하고 있습니다. 이때 구간에 대한 이산화된 수치적 정보, encoding된 시계열 정보, vocab과의 cross-attention을 통해서 구해진 Context-Integrated Step-aligned Hint, 전체 task 수준의 일관된 사전 지식을 주입하기 위한 task-prior hint 등을 도입하고 있습니다. 벤치마크 데이터로는, 기존에는 시간적 패턴의 언어를 말하도록 모델을 가르치는 벤치마크가 부족하다는 문제를 기반으로 Pattern-Level Anomaly Vocabulary, Contextual and Comparative Reasoning, LLM-Powered Explanation Generation를 설계 원칙으로 하여 데이터를 생성하고 있습니다. 좋은 발표 정말 감사드립니다.
AXIS 논문과 함께 LLM 기반 시계열 이상탐지 연구 전반을 다시 다뤄주셔서 분야의 연구 흐름도 함께 생각해볼 수 있는 시간이었으며, AXIS가 어떤 지점을 보완하려는지 공감해볼 수 있었습니다. 특히 token budget 제약 문제 때문에 기존 접근이 시계열적 맥락을 도중에 잃고, fragment와 통계 요약에 의존하게 된다는 문제 제기가 설득력 있었습니다. 개인적으로는 semantic anomaly benchmark 설계가 흥미로웠는데, 정상/비정상 segment를 비교하기 위한 curriculum, 다형적인 설명 데이터 생성을 위한 multi-agent pipeline까지 설명가능한 TSAD를 어떻게 훈련/평가해야 하는가를 구조적으로 잘 반영한 듯합니다. 다만 LLM 기반 시계열 연구는 합성 데이터에 의존하는 경향이 크며, 언어모델 특유의 설명력을 가지기는 하나 신뢰성이 보장되지는 않기에 실제 현장에서 이러한 부류의 방법론이 도입될 수 있을지 아직은 의문 부호가 떠오른다는 생각이 듭니다. 그래도 에이전트 기반의 이상탐지에 실제 제조업 현장에 이용되는 모습을 보게 되면 좋겠습니다. 좋은 발표 감사합니다!
이번 세미나는 "AXIS: Explainable Time Series Anomaly Detection with Large Language Models" 논문을 중심으로, LLM을 활용한 시계열 이상 탐지의 설명 가능성을 강조한 연구를 소개했습니다. 기존 LLM 기반 TSAD의 문제점인 글로벌 컨텍스트 상실과 표현 정렬 미비를 지적하며, LLM을 직접 튜닝하지 않고 세 가지 힌트-기호적 수치 힌트, 컨텍스트 통합 스텝 정렬 힌트, 태스크 우선 힌트를 통해 시계열 데이터를 언어 공간에 효과적으로 매핑하는 프레임워크를 제안한 점이 흥미로웠습니다. 특히 Time-series encoder와 Hint Tuner를 분리하여 global pattern과 local 정보를 동시에 고려하도록 설계한 구조가 설명의 논리성과 정확성을 높이는 데 기여할 것으로 보입니다. 또한 Semantic Anomaly Benchmark를 새로 구축해 multiple choice, open ended, true/false 질문으로 모델의 설명 품질을 평가한 접근도 혁신적입니다. 다만, 벤치마크가 합성 데이터에 치중되어 있어 실제 환경에서의 일반화 가능성에 대한 추가 검증이 필요할 것 같습니다. 유익한 발표 감사합니다.
이번 세미나에서는 "AXIS: EXPLAINABLE TIME SERIES ANOMALY DETECTION WITH LARGE LANGUAGE MODELS" 논문을 소개해주셨습니다. AXIS 논문은 기존 LLM 기반 시계열 이상탐지의 한계를 명확히 짚고, 이를 구조적으로 개선한 점이 인상적이었습니다. LLM을 직접 학습시키지 않고 세 가지 힌트를 통해 시계열 데이터를 언어 공간으로 효과적으로 매핑한 접근이 실용적이었고, 단일 시점이 아닌 구간 단위로 “무엇이, 언제, 왜 이상인지”를 설명하려는 시도가 흥미로웠습니다. 또한 Semantic Anomaly Benchmark를 통해 의미적 설명 품질을 정량적으로 평가하려는 노력도 돋보였던것 같습니다. 좋은 발표 감사합니다!
이번 세미나는 “AXIS: Explainable Time Series Anomaly Detection with Large Language Models”를 주제로 진행되었으며, 기존 LLM 기반 TSAD의 핵심 한계였던 global context 상실 문제를 구조적으로 해결하려는 접근이 인상적이었습니다. AXIS는 LLM을 직접 fine-tuning하지 않고 세 가지 힌트(Symbolic Numeric, Context-Integrated Step-Aligned, Task-Prior)를 조합해 시계열 데이터를 언어 공간에 자연스럽게 정렬하는 방식을 제안합니다. 특히 time-series encoder를 통해 전체 시계열의 흐름을 embedding으로 추출한 뒤, target window에 정렬해 넣는 아이디어가 효과적이라고 느꼈으며, 새롭게 구축한 Semantic Anomaly Benchmark를 통해 단순 탐지가 아닌 “무엇이, 언제, 왜 이상인가”를 평가하려는 시도도 의미 있었습니다. 정상/이상 비교 기반 reasoning이나 LLM 기반 설명 생성 파이프라인은 실제 전문가의 사고 흐름을 잘 반영하고 있어 흥미로웠습니다. 다만 synthetic 기반 벤치마크의 실제 데이터 일반화 여부는 앞으로 더 확인이 필요해 보입니다. 결과적으로, AXIS는 시계열 이상 탐지를 예측에서 설명으로 확장하며, LLM과 encoder 구조를 자연스럽게 결합한 균형 잡힌 연구라고 느꼈습니다. 좋은 발표 준비해주셔서 감사합니다.