| 번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
| 공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 15368
|
관리자 | 2020.03.12 | 0 | 15368 |
| 공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 14100
|
관리자 | 2020.03.12 | 0 | 14100 |
| 공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 15059
|
관리자 | 2020.03.12 | 0 | 15059 |
| 553 |
[Paper Review] Why CLIP fails at Dense Prediction Task? (2)
Jinwoo Jang
|
2026.04.06
|
추천 0
|
조회 37
|
Jinwoo Jang | 2026.04.06 | 0 | 37 |
| 552 |
[Paper Review] Dynamic Large Concept Models (8)
Jaeyong Ko
|
2026.03.30
|
추천 0
|
조회 123
|
Jaeyong Ko | 2026.03.30 | 0 | 123 |
| 551 |
[Paper Review] Programming Refusal with Conditional Activation Steering (15)
Sunmin Kim
|
2026.03.10
|
추천 0
|
조회 383
|
Sunmin Kim | 2026.03.10 | 0 | 383 |
| 550 |
[Paper Review] Towards a General Time Series Anomaly Detector with Adaptive Bottlenecks and Dual Adversarial Decoders (9)
Sunghun Lim
|
2026.03.01
|
추천 0
|
조회 321
|
Sunghun Lim | 2026.03.01 | 0 | 321 |
| 549 |
[Paper Review] Rethinking the Power of Timestamps for Robust Time Series Forecasting: A Global-Local Fusion Perspective (9)
Suyeon Shin
|
2026.02.25
|
추천 0
|
조회 240
|
Suyeon Shin | 2026.02.25 | 0 | 240 |
| 548 |
[Paper Review] Recent Research Trends Foundation Model for Visual Anomaly Detection (10)
Jaehyuk Heo
|
2026.02.12
|
추천 0
|
조회 488
|
Jaehyuk Heo | 2026.02.12 | 0 | 488 |
| 547 |
[Paper Review] Vision-based and Multimodal Approaches for Time Series Analysis (9)
Hyeongwon Kang
|
2026.02.10
|
추천 0
|
조회 468
|
Hyeongwon Kang | 2026.02.10 | 0 | 468 |
| 546 |
[Paper Review] Introduction to Neural Operator (10)
Hankyeol Kim
|
2026.02.03
|
추천 0
|
조회 562
|
Hankyeol Kim | 2026.02.03 | 0 | 562 |
| 545 |
[Paper Review] Enhancing Time Series Forecasting through Selective Representation Spaces: A Patch Perspective (13)
Sieon Park
|
2026.01.29
|
추천 0
|
조회 577
|
Sieon Park | 2026.01.29 | 0 | 577 |
| 544 |
[Paper Review] ELFS: Label-Free Coreset Selection with Proxy Training Dynamics (13)
Subeen Cha
|
2026.01.28
|
추천 0
|
조회 385
|
Subeen Cha | 2026.01.28 | 0 | 385 |
이번 세미나는 Transformer 기반의 모델을 통해 Log Anomaly Detection을 수행하는 “LogFormer: A Pre-train and Tuning Pipeline for Log Anomaly Detection”라는 논문에 대한 발표를 중심으로 진행되었습니다. LogFormer는 사전 학습 단계에서 소스 데이터에 해당하는 로그 데이터에 대해 로그 파싱 이후 학습을 진행하고, Adapter에 기반한 Encoder의 학습을 통해 적용시킬 도메인에 대해 Fine-Tuning을 수행하는 비교적 간단한 구조를 사용합니다. 로그 이상치 탐지에 대해서 잘 모르는 상황에서 Log Parsing, Log Attention Module 등 로그 데이터를 활용하는 경우 사용하는 다양한 방법론들을 공부할 수 있어서 좋았습니다. 그러나 현실 상황에서는 이상치에 해당하는 데이터를 확보하는 것이 매우 어렵기 때문에, 정상 데이터로만 사용한 Unsupervised 방식의 학습은 고려하지 않은 것이 아쉽다는 생각이 들었습니다. 좋은 발표 해주셔서 감사합니다.
이번 세미나에서는 로그 이상 탐지 분야에서 혁신적인 접근법을 제시한 “LogFormer: A Pre-train and Tuning Pipeline for Log Anomaly Detection” 논문에 대해서 발표해 주셨습니다. 해당 논문은 로그 이상 탐지 분야에서 혁신적인 접근법을 제시하는데, 특히 Transformer 기반의 프레임워크를 사용하여 로그 데이터의 이상을 효과적으로 탐지하는 것이 인상적이었습니다. 이 연구는 로그 데이터를 사전 학습하고, 어댑터 기반의 튜닝 단계를 통해 다양한 도메인에 쉽게 적용할 수 있도록 설계되었습니다. 특히 로그 파싱 변수의 값을 Transformer encoder에 통합하여 로그 OOV 문제를 해결하려는 시도가 인상깊었습니다. 이로 인해 다른 도메인으로의 전이 학습이 가능해져 적은 파라미터로도 높은 성능을 발휘하는 점이 탁월하다고 느꼈습니다. 또한, 실험을 통해 대규모 언어 모델과의 성능 비교, 실제 클라우드 서비스 환경에서의 적용 결과 등 실용성을 입증한 부분도 매우 인상적이었습니다. 다만, 어댑터 기반 튜닝이 왜 더 나은 성능을 발휘하는지에 대한 추가적인 분석이 부족하고, 서로 다른 도메인에 적용하기에는 어려움이 있을 수 있다는 점은 다소 아쉬웠습니다. 좋은 발표해 주셔서 감사합니다.
이번 세미나에서는 로그 이상 탐지(Log Anomaly Detection)를 위한 새로운 Transformer 기반 모델인 “LogFormer: A Pre-train and Tuning Pipeline for Log Anomaly Detection” 논문에 대한 발표가 진행됐습니다. 이 논문은 로그 데이터의 특성을 반영하여 이상 탐지를 수행하는 새로운 접근 방식을 제시하고 있으며, LogFormer라는 모델을 통해 기존 방법론의 한계를 극복하고자 하였습니다. LogFormer는 사전 학습(pre-training)과 미세 조정(fine-tuning) 단계를 통해 다양한 도메인에서 효과적으로 로그 이상을 탐지할 수 있도록 설계되었습니다. 특히, 로그 데이터를 Transformer 구조에 맞게 전처리하고, 로그 파싱(log parsing) 이후에는 각 로그 메시지를 어댑터 기반 Encoder에 통합하여 모델의 성능을 높이고자 하였습니다. 이러한 어댑터 기반의 학습은 새로운 도메인으로의 전이 학습을 가능하게 하여 모델의 유연성을 높이는 데 기여하였습니다. 논문에서는 로그 파싱 변수를 Transformer의 Encoder에 통합하는 방법을 통해 로그 데이터의 OOV(out-of-vocabulary) 문제를 해결하고, 다양한 환경에서의 적용 가능성을 높였습니다. 실험 결과, LogFormer는 대규모 로그 데이터셋에서 기존의 방법들보다 우수한 성능을 보였으며, 실제 클라우드 서비스 환경에서도 좋은 성능을 보였음을 입증했습니다. 이 발표를 통해 Transformer 기반의 로그 이상 탐지 방법론이 기존 기법보다 더 나은 성능을 발휘할 수 있다는 것을 알게 되었고, 특히 적은 파라미터로도 높은 성능을 발휘한다는 점이 매우 인상적이었습니다. 그러나, 어댑터 기반 튜닝의 성능 향상 원리에 대한 추가적인 분석이 부족했던 점과 서로 다른 도메인에 적용하기 위한 구체적인 전략이 다소 부족했던 점은 아쉬웠습니다. 그럼에도 불구하고, 로그 데이터의 특성을 반영한 새로운 접근 방식에 대한 이해를 넓힐 수 있는 좋은 발표였습니다. 발표해 주셔서 감사합니다.
금일 세미나는 Log 데이터에 대해 사전학습 모델 활용 시 효과적인 변수 추출 및 활용 방법론을 제시한 "LogFormer: A Pre-train and Tuning Pipeline for Log Anomaly Detection"을 중심으로 진행되었습니다. 로그 데이터의 경우 일반 자연어 데이터와 달리 정형화된 형식인 템플릿이 존재합니다. 이로인해 많은 기존 연구들이 해당 템플릿 정보를 포착하여 전처리하고, 학습하는 방법론을 제시하고 있습니다. 본 연구에서는 로그 템플릿 데이터의 정보를 BERT Attention 레이어를 이용하여 삽입하는 방법론을 제안하고 있습니다. 구체적으로 sBERT를 이용하여 각 템플릿의 임베딩을 생성하고, Log Attention Module을 이용하여 추가적인 로그 템플릿의 정보를 Attn으로 삽입하도록 합니다. 단순히 Template 정보를 Attention으로 삽입하는 해당 방법론은 그 단순함에도 불구하고, 기존 방법론 대비 높은 성능을 확인할 수 있습니다. 결국 로그 데이터에서 템플릿 정보 역시 중요하다는 점을 알 수 있다는 점에서 유의미한 연구라고 할 수 있습니다. 하지만 LanoBERT와 같이 템플릿 정보를 학습 시 최대한 활용하는 방법론과의 비교가 부족하여 실제로 해당 논문에서 제안하는 복잡한 파이프라인을 이용하여 템플릿 정보를 이용해야 하는지 다소 의문이 남아 아쉬웠습니다. 좋은 발표 감사합니다.
이번 세미나에서는 "LogFormer: A Pre-train and Tuning Pipeline for Log Anomaly Detection" 논문을 중심으로 발표가 진행되었습니다. 이 연구는 Transformer 기반 모델을 활용하여 로그 데이터를 사전 학습하고, 어댑터 기반의 튜닝을 통해 도메인에 맞게 이상 탐지를 수행하는 방법을 제시했습니다. 로그 파싱과 로그 어텐션 모듈을 이용한 접근 방식이 인상적이었으며, 전이 학습을 통해 다양한 도메인에 쉽게 적용할 수 있다는 점이 특징입니다. 그러나 이상치 데이터를 확보하기 어려운 현실적인 문제로 인해, 정상 데이터만을 활용한 Unsupervised 학습 방식에 대한 아쉬움이 있었습니다. 전반적으로 유용한 정보가 많았고, 좋은 발표였습니다.