[2019.12.06 - 최종현 석사과정] Graph-based Summarization

Paper Review
작성자
관리자
작성일
2020-03-12 11:30
조회
4164
1. Topic

Grpah-based Summarization

2. Overview

Text Summarization 분야에서 텍스트(문서)내에서 원본 글자 그대로 중요한 문장을 추출하여 요약하는 방법인 Extractive summarization에 대하여 발표를 진행하였습니다. 특히, extractive summarization 중에서도 그래프 기반 문서 요약(graph-based summarization)에 대해, Neural Network(NN)를 사용하기 이전의 요약 방법인 LexRank와 NN을 사용한 Graph Convolutional Network 기반 요약 방법에 대해 설명하였습니다.

[LexRank]는 구글의 검색엔진에 적용되었던 PageRank라는 알고리즘을 문서 요약에 적용한 방법입니다. 해당 논문에서는 문서 내 문장과 문장의 관계를 그래프로 나타내기 위하여 Tf-idf cosine similarity를 사용하여 문장 간의 관계를 그래프로 표현하였습니다. 그런 다음, 텍스트에 맞게끔 PageRank 알고리즘을 변형한 Lexical PageRank(LexRank)를 통해 문서 내 요약할 중요문장을 추출하는 방법입니다.

 [Graph-based neural multi-dcoument summarization] 은 Graph Convolutional Network(GCN)이라는 Neural Network 을 이용하여 문서 요약 방법을 제안한 논문입니다. 해당 논문에서는 문서 내 문장 간의 관계를 그래프로 표현하기 위하여 Personalized Discourse Graph(PDG)라는 방법을 제안하였습니다. 그런 다음 생성한 그래프의 high-level hidden feature를 추출하기 위하여 GCN을 적용하였습니다.

이번 세미나 발표에서는 위의 두 논문 뿐만 아니라, Markov Chain에서의 Irreducible 및 Aperiodic에 대한 개념과 Graph Convolutional Network에 대한 개념 또한 추가적으로 설명하였습니다.

3. 발표자료 및 발표영상

[1] 발표자료

[2] ">발표영상

4. 참고문헌

[1] Erkan, G., & Radev, D. R. (2004). Lexrank: Graph-based lexical centrality as salience in text summarization. Journal of artificial intelligence research22, 457-479.

[2] YASUNAGA, Michihiro, et al. Graph-based neural multi-document summarization. arXiv preprint arXiv:1706.06681, 2017.

[3] Christensen, J., Soderland, S., & Etzioni, O. (2013). Towards coherent multi-document summarization. In Proceedings of the 2013 conference of the North American chapter of the association for computational linguistics: Human language technologies (pp. 1163-1173).

전체 10

  • 2020-03-14 16:54

    이번 세미나는 "Graph-based summarization"이라는 주제 아래 LexRank와 Graph-based Neural Multi-Document summarization 논문을 최종현 석사과정이 발표해주었습니다. summarization은 NLP 에서도 유명한 task중 하나로, 최근 기업과제를 통해 관심을 가지고있던 분야여서 매우 재미있게 들을 수 있었습니다.

    먼저 LexRank는 NN 이전에 제안된 방법론으로서 summarization 중에서도 Extractive summarization에 포함됩니다. 문서 내의 문장과 문장사이의 관계를 노드와 엣지로 표현한 후, 내용이 비슷한 문서들로 구성된 클러스터 속 문장들의 중심성을 사용하여 요약할 문장을 추출하는 방법을 사용하여 summarization이 진행됩니다. 여기서 중심성이라는 것은 한 클러스터 내에서 중요하다고 생각되는 내용을 식별할 수 있는 특징인데, 이 중심성을 어떻게 정의하느냐에 따라 추출되는 문장이 달라집니다. LexRank에서는 문장간의 유사도를 정의한 후 이를 이용하여 중심성을 구했습니다. 유사도를 구하는 방법으로는 idf-modified-cosine을 사용하였으며, 중심성을 구하기위해서 continuous LexRank와 statinary distribution을 구하여 계산하였습니다.

    두번째로 Graph-based Neural Multi-Document summarization에서 제안하는 방법은 sentence relation graph를 생성하여 GRU 계층으로 한 클러스터 내의 sentence를 embedding 한 후 Graph convolution network를 적용하여 salience estimation을 진행하고 휴리스틱을 사용하여 요약에 사용될 문장을 선택하는 구조를 가지고있었습니다. (salience 점수를 통해서 판단을 내리는 이유는, 이 점수가 전체텍스트와 문장의 관련성을 나타내는 지표이기 때문입니다. ) 또한 추정된 salience score를 사용하여 Personalized discourse graph weight를 계산한 후 이를 이용하여 sentece graph를 생성합니다. 이렇게 추출된 문장이 꽤 좋은 성능을 나타낸다는 것이 매우 신기했습니다.

    세미나를 통해 GCN이라는 것을 처음 알게 되었는데 문장간의 유사도를 나타낸 그래프에서 convolution 연산을 통해 특징을 추출한다는 것이 새로웠습니다. 또한 발표의 흐름이 전체구조를 먼저 설명한 후 각 파트의 세부내용을 개념부터 설명해주셨는데 이 분야를 잘 알지못하는 학생도 충분히 이해할 수 있어서 매우 좋았습니다. 세미나를 통해 새로운 방법론과 연구를 알 수 있어 뜻깊은 시간이었습니다.


  • 2020-03-16 21:20

    Extractive Summarization과 관련된 두 개의 논문에 대하여 발표를 들었습니다. 첫 번째 발표는 그래프 중심성을 판단하는 지표 중 하나인 Lex Rank에 대한 논문이었으며 두 번째 발표는 해당 저자가 Graph Convolution Network를 이용하여 진행한 후속 연구에 대한 논문이었습니다. 발표자와 함께 진행했던 프로젝트 중 단어를 그래프로 표현해 감성분석 task를 수행했던 프로젝트가 있었습니다. 그 때는 Graph-based 준지도학습 방법 중 하나인 Label Propagation을 이용해 문서에 대한 분류를 수행했습니다. 해당 프로젝트를 진행하며 GCN을 이용하고자 잠시 공부했던 적이 있었는데 금일 발표를 들으며 조금 더 자세히 알 수 있었습니다. 그 때 당시 문서에 대한 graph를 구축하기 위해 k-nn과 e-nn등의 방법을 이용했는데 이러한 방식으로 그래프를 구축한 뒤 본 논문의 내용을 수행하는 것도 좋은 연구 주제가 될 수 있을 것이라고 생각합니다. 발표자의 앞으로의 연구 방향이 기대되는 발표였습니다.


  • 2020-03-17 14:30

    금일 발표는 "Graph-based Summarization"를 주제로 진행되었습니다. 발표자는 LexRank와 Graph-based Neural Multi-Document Summarization에 대해 상세히 발표했습니다. 예전에 text summarization에 관심이 있어서 LexRank에 대해서는 알고있었지만, 딥러닝 기반의 모델 중 graph를 기반으로 한 summarization 모델은 처음이라 관심을 가지고 발표를 청취했습니다. Graph-based Neural Multi-Document Summarization은 sentence간 graph와 GRU기반의 sentence embedding을 통해 graph를 embedding한 후, 이를 graph convolutional network에 학습시켜 문장의 salience score를 산출하는 모델입니다. 해당 모델의 구조가 흥미로웠고, 최근 graph neural network 분야에서 많은 연구들이 진행되고 있는데 오늘 발표에서 이와 관련된 내용을 들을 수 있어서 좋았습니다.


  • 2020-03-24 20:39

    문서 요약을 처음 접한것은 관련 프로젝트에서 처음이였고, abstract , extractive 방법이 있다고 알고 있었습니다. 특히 extractive 방법이 어떻게 수행되는지에 대해서 궁금증이 많았는데, human greedy 방법에서 유사도를 측정하여 비슷한 문장을 사용하지 않는다는 것에서 영감을 받았습니다.
    발표자체는 예전방법론 부터 딥러닝에 어떻게 적용되는지 이해하기 쉽도록 구성되어있어, 사전지식이 부족했지만 많은것을 습득 할수 있었던 발표였습니다.
    최근 graph 관련 방법론들이 주목받고 있고, 이를 적용하는 분야가 많이 늘어나고 있는것 같습니다. GCN 의 경우 연결된 노드들을 비교하면서 노드를 형성해 나간다고 보았습니다. 저 또한 graph 관련 논문들을 읽으면 해당 분야에 지식을 follow up 해나가는 단계인데, page rank 부터 기본적인 지식을 함께 알려주어서 공부에 유익한 발표였습니다.


  • 2020-03-25 14:35

    먼저 제가 이해한 내용은 다음과 같습니다. 문서요약은 한문서에 대해서 하나의 요약을 할 수 있고, 여러개의 문서로 하나의 요약을 할 수 있으며 Extractive는 문서를 선택하는 방법이 있고 abstractive는 문장을 생성하는 목적을 가지고 있습니다. LexRanK는 문장단위로 그래프를 만들며 여러개의 문서들을 보고 요약을 하는 방법론을 언급이 되었고 특정문장과 유사한 정도를 정규화된 TF-IDF의 벡터 유사도로 표현되는것을 알수 있었습니다. 그래프를 정의하기 위해 중심성을 계산해야하는데 degree를 이용하여 eigen벡터(행렬)로 표현시키는 방법과 2번째로 마코프체인을 활용하여 transition matrix를 구할 수도 있으며 또한 matrix의 확률값을 degree를 이용해 구할수 있습니다. 한번 더 생각하면 degree대신에 TF-IDF 스코어를 대신해서 사용할 수 있습니다. 본 연구목적에 딥러닝을 사용하게 되면 GCN을 적용할 수 있다는 점에서 local feature를 묶어서 receptive field를 방식이 어떻게 그래프의 정보량이 담기는지 상상히 되는 방법론이었습니다. 향후 수식이나 연산방법은 공부를 더 봐야 잘 이해가 될 것 같습니다.


  • 2020-03-25 18:16

    금일 세미나 시간에는 graph-based multi-document summarization라는 주제로 자연어처리 분야에서의 Text Summarization task에 대한 세미나 발표를 다루었습니다. 우선 딥러닝방법론 이전의 Graph 기반의 문서요약(Text Summarization)의 선행연구를 통해서 문서를 문장들에 대한 그래프로 표현하여 주요 문장을 찾아 이를 요약으로 제시하는 방법에 대한 접근법에 대해서 소개해 주었고, 최종적으로는 논문에서 Contribution으로 어필하고 있는 Graph-based CNN을 통해서 핵심문장을 선별하는 방법론을 본 세미나를 통해서 다루어 보았습니다. 본 논문에서는 해당 방법론을 통해서 multi-document라는 Task를 정의하고 Clustering이 된 문서에 한해서 문장요약을 수행하고 있었는데, 실제 활용단계에서 이러한 Specific한 상황보다는 범용적인 여타 다른 LSTM기반(+attention) 문서 요약 방법론과의 비교, 혹은 장단점이 좀더 논문에서 다루었으면 하는 아쉬움이 남았습니다. 실제로 Graph-based 라는 해당 방법론의 접근법은 해당 문서의 문장이 많은 상황, 즉 노드의 수가 많아지면 이를 위해 사전에 생성해야 할 인접행렬 Matrix 사이즈도 커지게 되는 상황에서, 연산속도 및 학습단계의 과정 측면에서 어려움이 없을지 의문이 들었습니다. 물론, 기존 end2end방식의 RNN&CNN이 아닌 Graph-based CNN을 활용하였다는 부분에서 그 아이덴티티가 있는 재미있는 연구라고 생각하지만, 이를 위한 그래프를 구성하고 노드간의 가중치를 산출하는 과정까지도 end-to-end로 구성할 수 있는 방안을 한번 고민해보고 싶은 논문이라고 생각합니다. 재미있는 주제의 논문을 발표한 발표자에게 감사의 인사 전하면서 후기를 마칩니다.


  • 2020-03-27 14:22

    문장 요약을 위해 원본에서 문장을 추출하는 Extractive summarization에 대한 주제로 발표를 하였습니다. 더 세부적으로는 Graph 구조를 이용하여 문장을 추출하는 방법, Multi-document 내 핵심 문장을 추출하는 방법이였습니다. 문장의 Centrality를 표현하기 위해 어떤식으로 정의하는지 기존의 연구부터 어떤식으로 보완해서 발전하는지 흐름을 보여주어 좋았습니다. GCN기반의 multi-document 문서 요약을 하기 전에 그래프를 생성하기 위해 3가지 방법을 이용하였는데, G-Flow 방법은 기존에 Summarization task를 그래프 생성하는데 사용하여 신선했습니다. 가중치 기준이 아닌 인접행렬 기준으로 GCN을 본 논문에서는 다루었고, Cluster 벡터와 문서들의 벡터의 attention과 비슷한 방법으로 스코어를 구하여 문장을 추출하였습니다. 발표 자료가 인상 깊었는데, 직접 예시를 만들고 이를 본인이 해결한 자료를 넣은 것을 보고 더 청중이 이해하기 좋았습니다. 최근 graph를 이용한 연구들이 다양한 분야에서 활발하게 이루어지고 있고 관련 데이터들도 많이 공개되고 있는 상황에서, GCN 논문 발표를 통해 많은 도움이 되었습니다.


  • 2020-03-27 17:33

    Text Summarization task 와 관련된 2개의 논문에 대해 최종현 석사과정이 발표를 들었습니다.

    두 개의 논문 모두 Graph-based 로 summarization 을 시도한 연구였습니다. 저는 오늘 Graph-based summarization 에 대해서 처음 알게되었는데 쉽게 설명을 해주셔서 이해하는데 도움이 많이 되었습니다.

    먼저 LexRank 는 기존의 PageRank 알고리즘에 문장간의 유사도를 반영하여 Centrality 를 구하여 summarization task 를 수행하는 알고리즘으로 Multi-document extractive summarization 에 주로 사용된다고 합니다.

    두번째로 발표한 논문은 Neural network 를 이용해서 graph-based multi-document summarization 을 수행한 연구였습니다.

    발표를 들으며 Graph-based 로 summarization 을 수행하려면 결국 graph 를 어떻게 만들 것인지가 중요하다고 생각했었는데 논문에서는 PDG(Personalized Discourse Graph) 라는 방법을 제안하여 해당 방법을 통해서 문서에 대한 graph 구조를 생성했다고 합니다.

    이후 생성된 graph 를 GCN 구조를 활용하여 학습을 하는데 GCN 에 대한 설명과 문제점 등을 자세하게 설명 해주셔서 이해하는데 많은 도움이 되었습니다.


  • 2020-03-27 17:37

    Graph 기반의 문서요약에 관한 세미나였으며, 크게 LexRank와 신경망 기반의 모델로 나누어 발표가 진행되었습니다. LexRank는 각 문서들을 그래프 상의 노드로 표현하고 문서간 유사도를 엣지로하는 그래프를 구성합니다. 이후 타 문서와 가장 밀접하게 이어져 있는 문서가 중요도가 높은 문서라는 가정을 바탕으로 문서요약 task를 수행하게 됩니다. 이를 GRU와 GCN을 활용하여 수행한 것이 Graph-based Neural Multi-Document Summarization 입니다. 전반적으로 발표를 들으며 GNN과 summarization task에 대한 이해도를 동시에 높일 수 있어 의미있던 시간이었습니다. 개인적으로 발표를 들으며 든 생각은 graph 기반의 문서요약에서 각 문장과 문서를 graph의 node로 표현하면서 문장과 문서의 sequence 정보가 소실되는 것은 아닐까 하는 생각이었습니다. 요약이라는 것이 특히 extractive 요약일 경우 각 문장의 기승전결 순서 또한 중요한 정보가 될텐데 graph로 표현되면서 그러한 정보들이 잘 보존될 수 있을까에 대한 의문이 들었습니다. 문서요약은 NLP에서 주목받는 task인 만큼 저 또한 관련 연구를 follow-up하면서 제 개인연구에도 반영할 수 있는 여지를 찾아봐야겠다는 생각이 들었습니다.


  • 2020-03-27 17:39

    Summarization의 여러 방법론들을 개괄적으로 설명한 점이 좋았습니다. 해당 task들에 대해 개괄적으로 소개하고 그 중 graph 기반의 요약 방법론으로 집중적으로 설명해주어서 다음 내용에 집중할 수 있었습니다. 소개하고자 했던 신경망 기반의 그래프 기반 방법론에 앞서서 이에 대한 이해를 돕기 위해 신경망 이전의 그래프 기반 방법론을 소개해주어서 이해하는데 수월했던 것 같습니다. 그럼에도 그래프 기반의 지식들이 부족해서 이해가 되지 않는 부분도 있었으나, 여유가 생기자마자 이와 관련된 그래프 기반의 공부들을 해보아야겠다고 생각하게 되었습니다.
    발표 내용 중에는 일반적으로 알고 있는 단일 문서에 대한 중요 문장 추출과는 다르게, 여러 문서 뭉치들에서 중요한 문장을 추출해낸다는 방법론이 생소했으나 인상적이었습니다. 그리고 직접 예시를 만들어가며 이해를 도우려고 했던 부분이 인상적이어서 다음에 발표 자료를 준비할 때 배워야할 점들을 얻었습니다.


전체 501
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 10326
관리자 2020.03.12 0 10326
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 8940
관리자 2020.03.12 0 8940
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 10049
관리자 2020.03.12 0 10049
498
[Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables (7)
Sunghun Lim | 2025.04.24 | 추천 0 | 조회 87
Sunghun Lim 2025.04.24 0 87
497
[Paper Review] Imputation-based Time-Series Anomaly Detection with Conditional Weight-Incremental Diffusion Models (8)
Suyeon Shin | 2025.04.21 | 추천 0 | 조회 82
Suyeon Shin 2025.04.21 0 82
496
[Paper Review] Revisiting Multimodal Fusion for 3D Anomaly Detection from an Architectural Perspective (11)
Woongchan Nam | 2025.04.16 | 추천 0 | 조회 139
Woongchan Nam 2025.04.16 0 139
495
[Paper Review] Your Large Vision-Language Model Only Needs A Few Attention Heads For Visual Grounding (13)
Kiyoon Jeong | 2025.04.16 | 추천 0 | 조회 263
Kiyoon Jeong 2025.04.16 0 263
494
[Paper Review] Reasoning over Time Series with LLMs (14)
Hyeongwon Kang | 2025.04.09 | 추천 0 | 조회 307
Hyeongwon Kang 2025.04.09 0 307
493
[Paper Review] Accurate predictions on small data with a tabular foundation model (16)
Jaehyuk Heo | 2025.04.02 | 추천 0 | 조회 302
Jaehyuk Heo 2025.04.02 0 302
492
[Paper Review] Reasoning and Reinforcement Learning for LLM (15)
Jaehee Kim | 2025.04.02 | 추천 0 | 조회 293
Jaehee Kim 2025.04.02 0 293
491
[Paper Review] LLM based Recommender Systems : EAGER-LLM (19)
Jungho Lee | 2025.04.02 | 추천 0 | 조회 266
Jungho Lee 2025.04.02 0 266
490
[Paper Review] Data-driven discovery of coordinates and governing equations (18)
Hankyeol Kim | 2025.03.25 | 추천 0 | 조회 251
Hankyeol Kim 2025.03.25 0 251
489
[Paper Review] DUET: Dual Clustering Enhanced Multivariate Time Series Forecasting (15)
Sieon Park | 2025.03.19 | 추천 0 | 조회 362
Sieon Park 2025.03.19 0 362

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 허재혁 : jaehyuk.heo@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호