[Paper Review] From Local to Global: A GraphRAG Approach to Query-Focused Summarization

Paper Review
작성자
Doyoon Kim
작성일
2025-08-15 17:47
조회
581
  1. 논문 제목: From Local to Global: A GraphRAG Approach to Query-Focused Summarization
  2. 논문 링크: https://arxiv.org/abs/2404.16130
  3. 저자(소속): Darren Edge and Ha Trinh et al (Microsoft Research)
  4. 주요 내용:
    • 전체 text corpus를 아우를 수 있는 Query-Focused Summarization 과업에 적합한 RAG 시스템 구축
    • Text corpus 대상의 지식 그래프 형성
    • 지식 그래프 대상 community detection 적용 및 community 별 요약문 생성
    • 각 community 별 요약문을 통해 생성한 답변(local answer)을 취합해 최종 답변(global answer) 생성
  5. 발표 구성:
    1. 배경 설명(Backgrounds)
    2. 방법론(Methodology)
    3. 실험(Experiments)
    4. 참고 자료(Materials)
    5. 마무리(Conclusions)
전체 8

  • 2025-08-17 14:45

    방대한 corpus에 대한 query-focused summarization과 global sensemaking을 실현하기 위한 GraphRAG의 개념을 본 세미나에서 처음 접할 수 있어 좋았습니다. Leiden 알고리즘으로 hierarchy를 구성하고 community detection을 수행하는 과정 역시 생소한 탓에 다소 어려웠지만 흥미로웠습니다. 다만 발표자님의 의견과 같이 community summarization은 결국 global context는 잘 살리더라도 세부적인 내용을 손실할 수 있기 때문에, prompt-entity 조합의 설계가 성능을 좌우할 여지가 크다고 생각했습니다. 그래도 전반적으로는 대규모 corpus에 대한 RAG 방법론 중 매우 유력한 연구라는 인상을 받았습니다. 좋은 연구 소개 감사드립니다.


  • 2025-08-21 11:16

    이번 세미나에서는 기존 RAG가 개별 문서 수준에서는 잘 작동하지만, 방대한 코퍼스 전체를 아우르는 데 한계가 있다는 점을 짚고, 이를 보완하기 위해 GraphRAG라는 그래프 기반 접근법을 제안한 것이 인상적이었습니다. 특히 community detection으로 정보를 묶고 요약을 통해 global answer를 만드는 과정이 사람이 큰 그림을 파악하는 방식과 유사해 흥미로웠습니다.

    실험 결과에서도 포괄성과 다양성에서 우수함을 보였다는 점이 의미 있었고, 반대로 간결성에서는 기존 RAG가 낫다는 점도 균형의 필요성을 다시 느끼게 했습니다. 또한 정답이 없는 질문을 평가하기 위해 LLM-as-a-judge를 활용한 부분은 앞으로 여러 연구에 응용될 수 있을 것 같아 배울 점이 많았습니다.

    전체적으로 “local에서 global로 확장하는 지식 탐색의 중요성”과 “구현 세부사항이 성능을 좌우한다”는 교훈을 얻을 수 있었던 유익한 발표였습니다. 좋은 연구 소개해 주셔서 감사합니다!


  • 2025-08-22 19:27

    금일 세미나는 “From Local to Global: A GraphRAG Approach to Query-Focused Summarization” 논문을 바탕으로 진행되었으며, 본 연구는 전체 텍스트 코퍼스를 대상으로 하는 Query-Focused Summarization 과업에 적합한 RAG 시스템 구축을 목표로 하고 있습니다. 기존의 RAG 연구들이 주로 질문의 의도 분석과 관련 문서 탐색 방식에 초점을 맞추었다면, 이번 연구는 문서 간 관계와 연결성에 주목하여 knowledge graph 기반 데이터베이스를 구축한다는 점에서 차별성을 지니고 있습니다. 이러한 접근은 적은 양의 텍스트로도 핵심 정보를 효과적으로 제공할 수 있고, 엔티티 간 직접적인 관계를 확인할 수 있다는 장점을 갖습니다. 제안 연구에서는 이를 위해 LLM을 활용해 엔티티와 관계를 추출하고, Leiden 알고리즘 기반의 community detection을 통해 데이터베이스를 정교하게 구성하였습니다. 제가 알고 있는 대부분의 RAG 연구가 이미 구축된 데이터베이스를 바탕으로 진행되어 데이터베이스 구축 자체의 중요성을 간과하고 있었는데, 이번 세미나를 통해 그 의미를 다시금 인식할 수 있었고 매우 유익한 시간이었습니다. 좋은 발표 정말 감사드립니다.


  • 2025-08-25 16:57

    금일 세미나는 전통적인 지식 그래프를 활용한 RAG 시스템을 제안한 “From Local to Global: A GraphRAG Approach to Query-Focused Summarization” 을 중심으로 진행되었습니다. 기존의 RAG 시스템은 retriever을 활용한 vector db 에 의존하면서 각 요소들의 정확한 관계를 활용하기 어려웠습니다. 이에 해당 논문에서는 LLM을 이용하여 각 문서 별 entity와 relationship을 효과적으로 처리하고 요약문을 이용한 information retrieval을 시도하는 방법론입니다. 특히 retrieval 단계에서는 각 community에 대한 summary와 이를 이용한 local answer를 산출한 후 최종적으로 global answer를 생성하는 계층적 구조를 가지고 있습니다. 성능 측면에서 기존 RAG 시스템 대비 높은 성능을 달성하고, 전체 문서의 정보를 활용할 수 있다는 장점이 있습니다. 다만, 일반적인 RAG 시스템은 10만 건 이상의 문서를 가정한다는 점을 고려해보면 해당 프레임워크는 매우 적은 수의 문서에 대해서만 적용이 가능할 것으로 보입니다. 또한, 매우 복잡한 사실 관계의 경우 전통적인 head, relation, tail의 관계로 표현이 어려운데, 이러한 관점에 대한 향후 연구들이 지속되고 있는지도 궁금하였습니다. 좋은 발표 감사드립니다.


  • 2025-08-26 01:28

    이번 세미나에서는 "From Local to Global: A GraphRAG Approach to Query-Focused Summarization" 라는 주제로 진행되었습니다. GraphRAG는 대규모 텍스트 코퍼스의 전반적인 내용을 아우를 수 있는 query-focused summarization을 위해, 기존 RAG(retrieval-augmented generation)의 한계를 지식 그래프 기반으로 확장한 점이 인상적이었습니다. LLM을 활용해 각 문서에서 entity·relationship·claim 정보를 추출, 전체 코퍼스를 지식 그래프로 정규화한 뒤, community detection(Leiden 알고리즘 등)으로 주제별 서브그래프를 파악하고, 각 커뮤니티 요약(local answer)들을 취합해 최종적인 global answer를 생성하는 계층적 프레임워크가 제안되었습니다. 이번 발표에서는 단순 retrieval을 넘어 정보의 의미적 연결과 집합적 패턴 분석, 그리고 query 맞춤형 요약을 극대화한 GraphRAG의 가능성을 잘 체감할 수 있었고, 세부 프롬프트 예시 및 오픈 코드를 통한 실질적 확장성까지 엿볼 수 있었습니다. 좋은 발표 준비해주셔서 감사합니다.


  • 2025-08-26 16:07

    이번 세미나에서는 "From Local to Global: A GraphRAG Approach to Query-Focused Summarization" 논문을 소개해주셨습니다. GraphRAG 접근법을 통해 기존 RAG 방식이 가지던 한계를 극복하려는 시도가 인상 깊었습니다. 특히 단순히 관련 문서를 검색하는 수준을 넘어, 지식 그래프 기반으로 community detection을 수행하고 이를 통해 local summary를 모아 global answer를 생성하는 방식은 global sensemaking이라는 과제를 잘 풀어낸 것 같습니다. 다만 발표에서 언급된 것처럼 지식 그래프가 실제 본문 정보를 얼마나 충실히 반영할 수 있는지, 또 요약 과정에서 발생하는 정보 손실을 어떻게 최소화할 수 있는지는 앞으로의 중요한 과제로 보입니다. 좋은 논문 소개해주셔서 감사합니다!


  • 2025-08-29 10:40

    이번 세미나에서는 "From Local to Global: A GraphRAG Approach to Query-Focused Summarization" 논문을 심도 있게 다루어주셔서 많은 인사이트를 얻을 수 있었습니다. 기존 RAG 방식의 한계를 극복하고, 지식 그래프와 community detection을 활용하여 local summary를 집계해 global answer를 생성하는 계층적 접근이 매우 흥미로웠습니다. 특히 LLM을 통한 엔티티 및 관계 추출 과정과 Leiden 알고리즘을 활용한 community 구성 방식이 인상적이었고, 실제 대규모 corpus에 적용할 때 발생할 수 있는 정보 손실 및 확장성 문제에 대한 고민이 필요하다는 점도 공감되었습니다. 앞으로 해당 프레임워크가 다양한 도메인에서 어떻게 활용될 수 있을지 기대가 됩니다. 좋은 발표와 논문 소개 감사합니다!


  • 2025-11-02 00:07

    이번 세미나에서는 “From Local to Global: A GraphRAG Approach to Query-Focused Summarization” 논문을 중심으로, 그래프 기반 RAG(GraphRAG)를 활용한 질의 중심 요약(query-focused summarization) 기법을 소개해주셨습니다. 본 연구는 기존 RAG 구조가 문서 단위의 국소적(local) 정보 검색에 치중해 전체 맥락(global context)을 반영하기 어렵다는 한계를 해결하고자 제안된 접근법입니다. 발표에서는 문서 간 의미적 관계를 그래프로 구성하고, 질의(query)를 중심으로 관련 노드를 확장 탐색하여 요약을 생성하는 구조를 설명해주셨습니다. 이 과정에서 지역적 정보는 개별 문단 단위의 세부 내용을, 전역적 정보는 문서 간 연결 구조를 반영해 보다 균형 잡힌 요약을 생성할 수 있다는 점이 인상적이었습니다. 또한, GraphRAG가 단순 검색 기반 요약보다 질의의 의도를 더 정확히 반영하고, 중요 문서 간 연관성을 활용해 정보 손실을 줄이는 효과를 보였다는 점도 흥미로웠습니다. 이번 발표는 정보 검색과 요약의 경계를 넘어, 질의 중심 문서 이해를 보다 구조적으로 접근할 수 있는 가능성을 제시한 의미 있는 연구였습니다. 좋은 발표 감사합니다!


전체 532
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 13120
관리자 2020.03.12 0 13120
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 11892
관리자 2020.03.12 0 11892
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 12880
관리자 2020.03.12 0 12880
529
[Paper Review] Fusionformer: A Novel Adversarial Transformer Utilizing Fusion Attention for Multivariate Anomaly Detection (1)
Sunghun Lim | 2025.11.07 | 추천 0 | 조회 30
Sunghun Lim 2025.11.07 0 30
528
[Paper Review] AXIS: EXPLAINABLE TIME SERIES ANOMALY DETECTION WITH LARGE LANGUAGE MODELS (7)
Hyeongwon Kang | 2025.10.29 | 추천 0 | 조회 169
Hyeongwon Kang 2025.10.29 0 169
527
Introduction to Discrete Diffusion Language Models. (13)
Jaehee Kim | 2025.10.24 | 추천 0 | 조회 197
Jaehee Kim 2025.10.24 0 197
526
[Paper Review] AutoTimes: Autoregressive Time Series Forecasters via Large Language Models (15)
Sieon Park | 2025.10.03 | 추천 0 | 조회 351
Sieon Park 2025.10.03 0 351
525
[Paper Review] DFM: Differentiable Feature Matching for Anomaly Detection (14)
Subeen Cha | 2025.09.24 | 추천 0 | 조회 361
Subeen Cha 2025.09.24 0 361
524
[Paper Review] SelfCheck: Using LLMs to Zero-Shot Check Their Own Step-by-Step Reasoning (14)
Siyul Sung | 2025.09.17 | 추천 0 | 조회 343
Siyul Sung 2025.09.17 0 343
523
[Paper Review] ChatTS: Aligning Time Series with LLMs via Synthetic Data for Enhanced (14)
Jihun Nam | 2025.09.02 | 추천 0 | 조회 507
Jihun Nam 2025.09.02 0 507
522
[Paper Review] Towards Zero-Shot Anomaly Detection and Reasoning with Multimodal Large Language Models (6)
Junyeong Son | 2025.08.28 | 추천 0 | 조회 609
Junyeong Son 2025.08.28 0 609
521
[Paper Review] spurious Forgetting in Continual Learning of Language Models (8)
Hun Im | 2025.08.22 | 추천 0 | 조회 360
Hun Im 2025.08.22 0 360
520
[Paper Review] Time-Series Forecasting for Out-of-Distribution Generalization Using Invariant Learning (10)
Jinwoo Park | 2025.08.22 | 추천 0 | 조회 425
Jinwoo Park 2025.08.22 0 425

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 김도윤: doyooni303@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호