Repsum: Unsupervised Dialogue Summarization based on Replacement Strategy (ACL 2021) [link]
전체 20
Yunseung Lee
2022-02-11 20:22
금일 세미나는 dialogue summarization task에서 활용되는 RepSum에 대한 리뷰로 진행되었습니다. Dialogue summarization은 여러 turn으로 구성된 문장들로부터 핵심 내용을 추출한다는 점에서 일반적인 문서요약과 차이가 있습니다. N개의 문장이 있을 때 (N-1)개는 학습으로 활용하고 1개 문장을 예측하는 classification loss와 (N-1)개의 문장으로 만든 요약문과의 generation loss를 통해 학습을 수행합니다. RepSum에서는 SummaRunner와 유사한 extraction summarization을 수행하면서 동시에 새로운 auxiliary task로 abstractive summarization을 채택하였으며, 추가적으로 gumbel estimator 등을 활용하여 연산적 어려움을 해결하였습니다. Dialogue summarization task를 처음 접하게 되었는데, 이 task에서의 어려운 점들을 기존 요약방법론들과 비교해주셔서 해당 task를 이해하는 데에 큰 도움이 되었습니다. 좋은 발표 감사합니다.
Subin Kim
2021-10-06 14:29
금일 세미나에서 다룬 논문은 Repsum으로, dialogue summarization task를 다루고 있습니다. 여기서는 좋은 요약문은 원문을 잘 대체할 것이다 라는 아이디어를 바탕으로 모델을 설계하였습니다. 이 아이디어에 대한 구현은 n-1번째 dialogue와 summary를 가지고 다음 n 번째 utterance에 대한 문장을 예측하고 실제 n번째 문장인지를 classification하는 식으로 이루어집니다. 이때, summary와 dialogue 기반의 generation loss와 classification loss 와 더불어 summary 기반 utterance와 dialogue 기반 utterance 사이의 분포를 유사하게 하도록 KL divergence loss를 사용합니다. 이를 바탕으로, SummaRunner와 유사하게 extractive summarization을 수행합니다. Abstractive summarization은 auxiliary task로서 사용되며 sampling으로 인한 미분불가능은 gumbel extimator를 활용하여 해결하였습니다. 이때, abstractive summarization에 대한 제약으로 extractive summary를 teacher forcing으로 활용합니다. 본 방법론을 제안한 연구 배경이 매우 흥미로웠습니다. 세미나에서도 논의되었듯이, 과연 실제 generation을 잘 할까에 대한 의문이 있었는데, 실제로 활용한 데이터셋과 정성평가 결과물이 없어 아쉬웠습니다. 여러가지 auxiliary task를 가지고 main task를 위한 성능을 높이고자 한 아이디어가 신선하여 추후 개인 연구 아이디어 디벨롭에도 고려해볼 것 같습니다. 개인 연구를 위해 많은 논문을 탐색하고 아이디어를 얻어 바로 적용하면서 연구를 보완해 나가는 자세가 배울점인 것 같습니다. 좋은 발표 감사합니다.
Donghwa Kim
2021-10-06 17:23
이번 세미나에서는 RepSum:Unsupervised Dialogue Summarization based on Replacement Strategy를 발표해 주셨습니다. 총 9개의 multi-turn 문장이 있으면, 8개는 학습 문장으로 간주하고, 1개는 예측하는 형태를 만들어 냅니다. 동시에, 8개의 학습 문장에 대해서 요약문을 생성하여 9번째의 문장을 예측(generation)하고 그 차이를 구하는 방법을 사용하였습니다. 요약방법으로는 SummaRunner와 유사하게 extractive summarization을 수행하였고, Abstractive summarization은 discrete representation 방식의 auxiliary loss로 훈련 되었습니다. 전반적으로 2021 ACL에서는 structure prediction의 representation이 많이 나온것 같고, 이 논문도 역시 문장의 구조적인 특성을 반영하도록 학습을 수행하였습니다. 좋은 발표감사합니다.
Doyoon Kim
2021-10-07 02:27
금일 세미나에서는 이에 관하여 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy(ACL 2021) 제목의 논문을 바탕으로 DST(Dialogue State Tracking) 분야의 일환인 Dialogue Summarization에 대해서 다루었습니다. 라벨링 되어 있지 않은 대화 문의 경우 기존의 Template-based approach, labeled auxiliary information 이용, conversion to document 등의 방식에 적용되기 어렵습니다. 비지도 기반의 방법론들도 존재하긴 하지만 한계점이 존재하긴 마찬가지입니다. 이에 본 논문에서 제시하는 방법론의 목적은 대화문의 원본과 대화문의 요약본을 통해 동일한 특정 과제를 수행했을 때의 결과가 최대한 비슷하게, 거의 차이가 없도록 하는 것입니다. 결과적으로 원본과 요약본이 서로 동일한 중요 정보를 줄 수 있도록 하는 것으로도 볼 수 있습니다. 이때 특정 과제라 하면 utterance 생성 및 분류를 의미하는데, 총 n개의 utterance 중 n-1개의 utterance가 주어지면 마지막 n번째 utterance를 생성하거나 올바르게 예측하는 과제입니다. 한편, 새롭게 알게 된 것 중 흥미로웠던 것이 있었습니다. 본 과제 중 하나인 요약문 생성에 있어 label이 없으며 argmax 함수를 사용하게 되는 상황에서는 학습이 제대로 이루어지지 않기 때문에, 정확히는 미분불가능 하기 때문에 Straight-Through Gumble Estimator라는 기법이 이용되는 것을 확인하였습니다. 개인적으로 잘 알고 있다면 유용할 것이라 생각이 듭니다. 모든 비지도 학습이 그러하듯 deterministic한 평가 지표가 없기에 Loss를 구하는 과정을 집중하는 것이 본 방법론을 발전시키는데 영향이 있을까하는 생각이 들었습니다.
논문 소개와 함께 발표자님의 개인 연구 사항도 함께 공유 되었는데, 발표자의 개인 연구에 참고한 논문을 소개하며 논문에서 발견한 아이디어를 개인 연구에 적용시킨 것을 공유하는 모습은 제가 생각하는 이상적인 세미나 발표의 모습과 아주 흡사한 것 같습니다. 훌륭한 발표를 보여주심에 감사드립니다.
Yonggi Jeong
2021-10-07 13:35
이번 세미나는 논문 제목에도 드러나듯 Dialogue Summarization을 다루는 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy 논문에 대한 내용으로 진행되었습니다. 논문에선 dialogue summarization task가 부족한 labeled data와 짧은 대화문장, 애매한 target summary 등의 한계점이 있다고 지적하며, 요약문의 성능을 확인하기 위해 other task의 성능을 확인하는 방식을 제안합니다. 사용된 other task는 n-1번째까지의 utterances와 이에 대한 summary를 각각 입력으로 하여 n번째의 utterance의 generation, classification 성능을 비교하는 것입니다.
Dialogue를 설명할 수 있는 semantic feature를 잘 표현하면서 문장의 형태가 되도록 한 것이 summary임을 생각할 때, auxiliary task의 성능을 측정하는 것으로 representation 성능은 검증할 수 있지만 생성된 요약문이 자연스러운 문장이 되는지도 검증할 수 있는지에 대한 의문이 들었습니다. 논문에선 이러한 정성적인 확인도 진행했다고 하는데 발표자분께서 언급하셨듯 이 결과가 상세히 나와있지 않은 점은 아쉬운 것 같습니다. 기존 개인 연구의 해결을 위해 관련 연구를 찾아보고 다른 연구의 아이디어를 개인 연구에 적용해나가는 일련의 과정에 대해 잘 설명해주셔서 앞으로의 개인 연구에도 도움이 될 것 같습니다. 좋은 발표 감사합니다.
Hyeongwon Kang
2021-10-11 01:05
이번 세미나는 dialogue summarization task를 다루고 있는 'RepSum'을 주제로 진행되었습니다. 본 논문은 label이 충분하지 않은 경우 기존 방법론들을 거의 사용할 수 없다는 문제점을 해결하기 위해 unsupervised 방법으로 제안하고 있습니다. n-1개의 utterance를 이용해 n번째 utterance를 생성하는 generation과 실제 n번째 문장인지 classification을 진행하고, n-1개의 utterance로 만든 summary와의 generation loss와 classification loss 도출하였습니다. extractive summarization으로는 SummaRunner와 유사하게 각 문장마다 binary label을 부여하고, 1로 선택된 문장을 선택하는 방식을 사용하고, Abstrative summarization으로는 Gumbel distribution으로 부터 단어를 샘플링하여 auxiliary loss를 사용하였습니다. 여러 논문들을 서치해서 얻은 아이디어들을 발표자분의 개인연구에 적용하려고 노력하는 모습이 항상 멋있다고 생각하고 있습니다. 좋은 발표 감사합니다.
Seungwan Seo
2021-10-11 10:46
금일 세미나에서는 ACL 2021에서 발표된 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy에 대해 알아보았습니다. Auxiliary task를 통해 n번째 문장을 생성하고 또 분류하는 학습을 진행하며 최종적으로 이를 활용하여 SummaRunner와 유사하게 extractive summarization을 진행합니다. 발표자께서 auxiliary task의 정성적인 생성 성능에 대한 의구심을 표한것으로 기억하는데, 개인적으로는 실질적으로 엉망인 문장이 생성됐더라도 해당 loss를 받아 생성된 최종적인 output이 보기에 괜찮다면 중간 결과물이 꼭 사람이 원하는 형태가 되지 않더라도 문제가 없지 않을까 라는 생각이 들었습니다.
Jounghee Kim
2021-10-11 17:39
금일 세미나에서는 Dialogue Summarization 관련된 논문인 "Unsupervised Dialogue Summarization based on Replacement Strategy" 를 소개해 주셨습니다. 해당 논문은 대화에서 효과적으로 요약문을 생성하기 위하여 레이블이 없는 대화를 활용하여 요약문을 생성하는 새로운 Auxilary Task를 정의하였습니다. 이 방법은 우수한 요약은 원본과 내용이 비슷할 것이라는 가정에서 시작되어, 대화의 일부분을 요약문을 생성하는 리소스로 사용하고, 일부는 비교하는데 활용합니다. 그리고 요약문과 비교에 활용된 문장의 차이를 KL-Divergence를 활용하여 측정한 후 최소화함으로써 모델을 학습합니다. 이렇게 학습된 모델은 여러 Turn을 갖고 있는 대화에서 원본과 유사하지만 조금 다른 문장을 생성할 수 있습니다. 흥미로운 접근 방법이지만, 생성된 문장이 자연스러울 수 있도록 제약하는 조건이 없고 정성 평가 결과가 없으므로 실제로 잘 사용될 수 있을지는 의문감이 듭니다. 좋은 발표 감사합니다.
Euisuk Chung
2021-10-11 22:13
금일 세미나는 “RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy”으로 Dialogue의 핵심 내용에 대한 추출/생성요약문을 만들어내는 방법론에 대한 내용이었습니다.
이전에도 Dialogue의 핵심 내용에 대한 추출/요약하는 다양한 연구들이 사전에도 있었지만, 이들은 label이 충분하지 않은 경우 기존 dialogue summarization 방법론은 거의 사용할 수 없다는 단점이 있었습니다. 이를 극복하기 위해 Unsupervised dialogue summarization 방법론이 등장하지만 마찬가지로 많은 한계점들이 존재하였습니다.
이에 본 논문은 “우수한 요약은 auxiliary task를 완료하기 위한 동등한 정보를 제공하는 원래의 대화를 의미적으로 대체할 수 있다.”라는 새로운 의견을 제안합니다. 발표 때 질문 드렸던 것처럼 abstractive에 extractive를 fake summary loss에 이용한다는 것이 모델의 성능의 향상시키는 데에는 중요한 역할을 수행할 수 있을지 몰라도, 연산 속도나 실제 현실에서 사용될까 과연 유용한 loss일까 호기심이 생기네요. 좋은 발표 감사합니다!
Hoonsang Yoon
2021-10-11 22:44
본 세미나는 일반 문서를 요약하는 Summarization Task가 아닌 대화문에 대한 요약을 진행하는 Task에 대한 기법 소개였으며, Dialogue를 포함하는 점에서 현재 발표자가 진행하고 있는 DST 프로젝트와 연관성이 있습니다. 대화문 요약은 여러 turn으로 구성된 대화의 핵심 정보를 추출하여 간결한 표현으로 요약하는 과정이며 일반적으로 짧은 utterance로 인해 난이도가 더 높습니다. RepSum은 이에 대하여 단순 요약 대신, 다음 Turn의 utterance를 예측 또는 생성하는 Auxillary Task를 추가하여 성능을 향상 시키며, 기본 가정은 원문으로부터 핵심을 잘 추출하여 요약을 진행하였다면 Downstream Task의 성능도 유사할 것이라는 가정입니다. 또한 Unsupervised Based Model이기 때문에 훈련을 위한 정답 요약문을 Extractive (SummaRunner와 유사하게 sentence binary classification을 적용) 또는 Abstractive (Straight-Through (ST) Gumble Estimator를 통한 각 단어 Sample) 요약을 통해 생성합니다. 자신의 목적에 맞는 논문을 적절하게 찾아 실험에 적용하고 그런 행동을 연구실 전체와 공유하는 모습이 대단하다 생각하며, 좋은 발표 감사합니다.
Kyoosung So
2021-10-11 22:47
금번 세미나에서는 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy이라는 논문에 관하여 소개해주셨습니다. 보통 레이블링이 없는 dialogue의 경우 비지도 학습 기반으로도, 그렇다고 target 자체의 모호함 등으로 인해 기존의 summarization 방법론을 상요하기 어렵다는 한계를 갖습니다. 그래서 굉장히 흥미롭고 직관적인 방법론을 제안하는데, dialogue generation과 같은 다른 auxiliary task를 수행하는 데에 있어 '좋은 요약'이라면 원본 dialogue와 유사한 정보를 제공할 수 있다는 가정하에 또다른 task를 이용해 성능을 측정하고자 하였습니다. 방법론은 앞의 n-1개 utterance, 그리고 그 요약을 각각 이용해 n번째 utterance를 생성하고 classification/generation loss를 계산하여 학습에 사용합니다. 이러한 학습 방식에 기반이 되는 summarization, 즉 궁극적으로 앞선 auxiliary task를 통해 학습하고자 하는 요약 모델은 extractive, abstractive 방법론을 적용해 본 것 같은데, sota급의 모델이 아니라도 domain에 맞추어 참 흥미로운 아이디어를 생각해냈구나 싶었습니다. 관련되어 연구 주제를 생각해볼 때 많은 도움 될 것 같습니다. 좋은 발표 감사합니다.
Jina Kim
2021-10-11 22:57
오늘 세미나는 dialogue summarization을 위해 제안된 unsupervised 방법인 RepSum에 대한 내용으로 이루어졌습니다. RepSum은 원문과 동일한 정보를 저장하고 있는 요약문이 좋은 요약문이라는 가정 하에 설계되었습니다. 따라서 현재 시점까지의 summary와 dialogue를 기반으로 다음 utterance 문장을 예측하여 정답 문장 여부를 classification 하도록 학습합니다. 이때 summary와 dialogue 기반으로 예측한 utterance 분포 차이를 KL divergence로 정의하여 loss에 추가하였습니다. extractive summarization 방법을 사용하였고, 추가적으로 auxiliary data를 사용하여 abstractive summarization이 가능하게 하였습니다. 데이터의 구조적 특징을 학습에 어떻게 반영할 것인가가 중요한 요소인 것 같습니다. 좋은 발표 감사합니다.
Heejeong Choi
2021-10-11 23:37
긍일 세미나는 "RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy"라는 주제로 진행되었습니다. 본 발표에서는 일반적인 문서 요약과 다르게 여러 turn으로 구성된 문장의 핵심 내용을 추출하는 Dialogue Summarization task가 소개되었고, 해당 task에서 좋은 성능을 도출한 모델 RepSum이 소개되었습니다. RepSum은 unlabeled 상황에서 대화를 활용하여 auxiliary task를 정의하고 이를 최적화하는 과정을 통해 적절한 요약문을 추출 및 생성하는 모델입니다. 해당 모델은 좋은 요약문이 downstream task에서 요약하기 전 대화문과 동일한 정보를 갖고 있다는 가정을 기반으로 했으며, 세부적으로 요약문과 대화를 기반으로 다음 utterance 문장 예측을 통해 정답 문장 여부를 분류하는 auxiliary task를 정의하고 utterance의 분포 차이에 대한 KL divergence loss를 사용하여 이를 수행하는 과정을 통해 요약문을 추출 및 생성하였습니다. 개인적으로는 auxiliary task를 통해 목표가 되는 task를 수행한 점이 모든 연구 분야에서 차용할 수 있을 것 같다는 생각이 들어 인상적이었습니다. 좋은 발표 감사합니다.
Jungho Lee
2021-10-11 23:59
본 발표에서 Dialogue Summarization 관련 논문을 소개해 주었습니다. 논문의 제목에서도 알수 있듯이 unlabeled 상황에서 요약문을 추출 및 생성하는 모델을 설계합니다. 최근 auxiliary task 를 적절하게 수행하여, 색다른 아이디어를 적용하는 비지도학습을 수행하는 경우가 많았는데, 해당 논문도 유사한 흐름으로 진행됩니다. KL-Divergence를 활용하였고, 해당 아이디어는 좋은 요약문은 원문의 정보를 내포할 것을 가정하기 때문에 접근이 합리적이였고, 비슷한 아이디어로 최근 다양한 분야에서 눈문이 많이 나오는 것을 보아 활용도도 높은 것 같습니다.
Yookyung Kho
2021-10-12 00:09
이번 세미나는 ACL 2021에 accept된 논문 RepSum: Unsupervised Dialogue Summarization based on Replacement을 주제로 진행되었습니다. 대화 요약(Dialogue Summarization)은 여러 turn으로 구성된 대화의 핵심 정보를 추출하여 간결한 표현으로 요약하는 task입니다. 문장이 상대적으로 짧으며 화자들의 상호작용이 반영되어 있기 때문에 기존의 문서요약보다 어려운 task라는 특징이 있습니다. 이전 연구의 접근 방식은 1. Template-based approach로 입력구조가 사전에 정의되어 있고 특정 도메인에 한정적이라는 특징을 가지고 있으며, 2. 요약과 독립적인 task로 취급받던 dialogue act classification을 활용하여 라벨링된 보조 정보를 통해 더 나은 요약문을 생성하고자 했으며, 3. discourse labeling을 수행하여 기존 대화를 문서 형식으로 변형했습니다.
본 논문은 비지도 기반 방법론의 한계로 한정된 단어 수(추출 요약)과 인풋과 타겟 요약문 간의 작은 차이(생성 요약)을 거론하며, 좋은 요약문은 원문을 잘 대체할 것이다 라는 아이디어를 바탕으로 새로운 모델 RepSum을 제안하였습니다. Repsum은 n번째 utterence를 분류하고 생성하는 auxilary task를 정의하여 label이 존재하지 않은 상황을 극복하고자 했습니다. utterance를 생성하는 Generation task의 경우 인코더(Bi-LSTM)와 디코더(LSTM)으로 구성되어 있으며, 전체 대화를 concatenate하여 인코딩하고 attention을 활용하여 n번째 문장을 디코딩합니다. dialogue loss와 summary loss를 각각 계산하고 KL divergence loss를 추가하였습니다. 이어서 classification task의 경우 k개의 후보군 utterance를 미리 생성하고 Bi-LSTM을 인코더로 활용합니다.
다음으로 비지도 기반 추출 요약에서는 각 utterance마다 sentence 이진 분류를 수행하여 1로 분류되는 문장을 추출 요약문으로 선정합니다. 생성 요약의 경우 추출 요약보다 다소 복잡한데, vocab 분포에서 등장확률이 높은 단어를 샘플링하고 이때 argmax의 미분 불가성으로 인해 Gumble softmax를 도입했습니다. 또한, 수렴의 어려움을 극복하고자 Fake summary generation loss와 language modeling loss를 추가했습니다.
본 논문의 경우 발표자께서 진행하신 ACL/EMNLP 2021 연구실 내부 세미나에서 미리 다뤄주셨고 당시 흥미롭게 들었던 기억이 있습니다. 이번 세미나를 통해 더욱 세세한 설명을 접할 수 있어 좋았습니다. 유익한 발표 진행해 주셔서 감사합니다.
Hyeyeon Kim
2021-10-12 20:47
이번 세미나는 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy 에 대한 세미나였습니다. 본 논문에서 제안하는 모델은 뛰어난 서머리는 기존 대화 내용을 대체할 수 있으므로, 다른 axillary task를 진행했을 때 성능이 비슷하다는 가정하에 구축한 모델입니다. 비지도 학습 기반 dialogue summerization을 하는 모델이며, generate, classification을 서머리한 결과와 원본 대화 내용에 각각 적용하여 그 둘의 차이를 줄이는 형태입니다. 또한 요약도 추출 요약과 생성 요약으로 나누어 각각의 모델을 살펴보았는데, 생성 요약의 목적함수는 fake summary generation loss와 language modeling loss를 추가하는 형태입니다. 현재 회의 요약을 할 수 있는 모델에 대한 대회 등 DST를 사용하는 니즈들이 많이 증가하고 있으므로, 유망한 분야인 만큼 유익한 세미나였습니다. 감사합니다.
Myeongsup Kim
2021-10-12 20:52
이번 세미나에서는 여러 Turn으로 구성된 대화의 핵심 정보를 추출하여 요약하는 것을 목적으로 하는 RepSum에 대해 소개해 주셨습니다. 우선적으로 아이디어가 매우 직관적이라고 느껴졌습니다. 좋은 요약문이라면 원본 데이터의 특성을 잘 보존하고 있어, 요약문을 이용하여 다른 Task를 수행할 때 좋은 성능을 보일 수 있을 것이라는 가정 하에서 논리를 전개합니다. 이를 위해 저자들은 LSTM 기반의 Summarization Model을 설계하고, 원본 대화 데이터와 요약문을 각각 Utterance Generation과 Classification을 위한 Input으로 사용하여 차이를 줄이는 방식으로 Loss를 부과합니다. 개인적으로 BLEU와 같이 문장 내의 Token의 Matching 정보들을 이용하는 방식이 좋은 평가 지표는 아니라고 생각하고 있었는데, 해당 논문에서 제안된 다른 Task를 수행하는 과정에서 성능의 차이를 이용하여 문서 요약 등의 Task를 평가할 수도 있겠다는 생각이 들었습니다. 좋은 논문을 소개해 주셔서 감사합니다.
Jaehyuk Heo
2021-10-14 00:44
금일 세미나는 비지도 학습 방법으로 dialogue summarization 방법을 제안하는 ACL 2021에서 발표된 “RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy” 논문에 대해 소개해 주셨습니다. 논문에서 제안하는 방식은 auxiliary task를 추가적으로 구성하여 요약문을 생성한다는 방식이 새로웠습니다. N-1개의 대화문을 통해 대화문은 요약하는 모델을 구성하고 모델의 출력값을 다시 auxiliary task를 수행하여 N-1개의 대화문을 통한 task와 같은 성능을 내도록 학습하는 방식이 신선했습니다. 본 논문에서 얻은 아이디어를 기반으로 개인연구에 적용하고 꾸준히 실험을 진행하며 많은 시행착오를 겪는 모습이 멋있었습니다. 앞으로 좋은 결과도 함께 생기길 바라겠습니다. 좋은 발표 감사합니다.
Jeongseob Kim
2021-10-15 17:47
금일 세미나는 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy 연구를 중심으로 진행되었습니다. 본 연구는 대화요약(dialogue summarization) 벤치마크 데이터셋에서의 문제점을 지적하며, 새로운 관점에서 데이터셋을 구축하는 것이 필요하다는 포인트를 갖고 있습니다. 여기서 새로운 관점이란 generation의 관점을 이야기 합니다. 즉, label이 없는 여러 턴의 대화데이터의 본질을 학습하고, 이를 새로운 대화 데이터로 생성해가는 것입니다. 본 연구는 이러한 생성 모델에서 얻은 데이터를 통해 Unsupervised 접근에서 최적화를 이뤄내기 위해 다양한 auxiliary task를 정의하고 해결해갑니다. Unsupervised 접근을 담고 있기 때문에, label 데이터 없이도 생성 관점에서 최적화를 위한 학습데이터를 만들어가는 구조가 신선했습니다. 그리고 이를 위해 간단하지만 부가적인 auxiliary task를 활용하는 것도 인상적이었습니다. 더욱이 생성요약 부분에서 최적화를 위해 또 새로운 task를 정의, Fake summary generation loss, Language modeling loss를 학습시킨 것도 인상 깊었습니다. 기존 연구와 벤치마크 데이텃세의 문제점을 파악하고, 이를 해결하기 위해 정말 많은 노력과 창의적인 접근을 시도해간다는 생각이 들었습니다. 한가지 아쉬웠던 점은 발표자분께서도 언급해주셨지만 정성적인 평가를 확인하기 어려웠다는 점입니다. 대화 요약문 이기에 정성적인 평가도 꽤나 중요한 기준이 될 것 같아, 이 부분이 확인될 수 있다면, 정말 좋은 접근임을 확신할 수 있을 것 같습니다. 어려운 내용 항상 이해하기 쉽게, 핵심을 잘 짚어 설명해주셔서 발표자님께 감사드립니다. 좋은 발표 잘 들었습니다.
Hoyeong Kim
2021-10-15 22:13
이번 세미나에서는 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy 라는 주제로 발표해주셨습니다. 기존 approach 는 1. Template-based approach by extracting keyi nformation and filling it into the learned templates 2. Assistance from label edauxiliary information for summary generation 3. Convert the dialogue into a document (Discourse labeling task를 수행하여 기존 dialogue를 document form으로 변형) 의 3가지 단계로 이루어졌습니다.
기존 연구에서는 Label 이 충분치 않은 경우 기존 방법론을 거의 사용할 수 없었으며, extractive한 제약(dialogue utterances 의 제한된 단어)과 abstractive한 제약(input text와 target summary간 작은 차이)으로 많은 한계점이 존재했습니다. RepSum 모델의 제안은 우수한 summary가 original dialogue를 대체할 수 있다는 아이디어로부터 시작합니다. Label이 없는 상황에서 dialogue를 활용하여 새로운 Auxiliary task - n번째 utterance를 생성(TG, 전체 dialogue를 concatenate하여 인코딩, Attention을 활용하여 문장 디코딩) / 분류(TC, k개의 후보 utterance로 부터 n번째 utterance를 분류) - 를 정의하고, 이를 최적화함으로써 적절한 summary를 추출/생성해냅니다.
개인 연구에 적합한 논문을 찾아 적용해보고 개선 Point를 세미나를 통해 공유해주시는 모습이 인상깊었습니다. 좋은 발표 감사합니다.
금일 세미나는 dialogue summarization task에서 활용되는 RepSum에 대한 리뷰로 진행되었습니다. Dialogue summarization은 여러 turn으로 구성된 문장들로부터 핵심 내용을 추출한다는 점에서 일반적인 문서요약과 차이가 있습니다. N개의 문장이 있을 때 (N-1)개는 학습으로 활용하고 1개 문장을 예측하는 classification loss와 (N-1)개의 문장으로 만든 요약문과의 generation loss를 통해 학습을 수행합니다. RepSum에서는 SummaRunner와 유사한 extraction summarization을 수행하면서 동시에 새로운 auxiliary task로 abstractive summarization을 채택하였으며, 추가적으로 gumbel estimator 등을 활용하여 연산적 어려움을 해결하였습니다. Dialogue summarization task를 처음 접하게 되었는데, 이 task에서의 어려운 점들을 기존 요약방법론들과 비교해주셔서 해당 task를 이해하는 데에 큰 도움이 되었습니다. 좋은 발표 감사합니다.
금일 세미나에서 다룬 논문은 Repsum으로, dialogue summarization task를 다루고 있습니다. 여기서는 좋은 요약문은 원문을 잘 대체할 것이다 라는 아이디어를 바탕으로 모델을 설계하였습니다. 이 아이디어에 대한 구현은 n-1번째 dialogue와 summary를 가지고 다음 n 번째 utterance에 대한 문장을 예측하고 실제 n번째 문장인지를 classification하는 식으로 이루어집니다. 이때, summary와 dialogue 기반의 generation loss와 classification loss 와 더불어 summary 기반 utterance와 dialogue 기반 utterance 사이의 분포를 유사하게 하도록 KL divergence loss를 사용합니다. 이를 바탕으로, SummaRunner와 유사하게 extractive summarization을 수행합니다. Abstractive summarization은 auxiliary task로서 사용되며 sampling으로 인한 미분불가능은 gumbel extimator를 활용하여 해결하였습니다. 이때, abstractive summarization에 대한 제약으로 extractive summary를 teacher forcing으로 활용합니다. 본 방법론을 제안한 연구 배경이 매우 흥미로웠습니다. 세미나에서도 논의되었듯이, 과연 실제 generation을 잘 할까에 대한 의문이 있었는데, 실제로 활용한 데이터셋과 정성평가 결과물이 없어 아쉬웠습니다. 여러가지 auxiliary task를 가지고 main task를 위한 성능을 높이고자 한 아이디어가 신선하여 추후 개인 연구 아이디어 디벨롭에도 고려해볼 것 같습니다. 개인 연구를 위해 많은 논문을 탐색하고 아이디어를 얻어 바로 적용하면서 연구를 보완해 나가는 자세가 배울점인 것 같습니다. 좋은 발표 감사합니다.
이번 세미나에서는 RepSum:Unsupervised Dialogue Summarization based on Replacement Strategy를 발표해 주셨습니다. 총 9개의 multi-turn 문장이 있으면, 8개는 학습 문장으로 간주하고, 1개는 예측하는 형태를 만들어 냅니다. 동시에, 8개의 학습 문장에 대해서 요약문을 생성하여 9번째의 문장을 예측(generation)하고 그 차이를 구하는 방법을 사용하였습니다. 요약방법으로는 SummaRunner와 유사하게 extractive summarization을 수행하였고, Abstractive summarization은 discrete representation 방식의 auxiliary loss로 훈련 되었습니다. 전반적으로 2021 ACL에서는 structure prediction의 representation이 많이 나온것 같고, 이 논문도 역시 문장의 구조적인 특성을 반영하도록 학습을 수행하였습니다. 좋은 발표감사합니다.
금일 세미나에서는 이에 관하여 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy(ACL 2021) 제목의 논문을 바탕으로 DST(Dialogue State Tracking) 분야의 일환인 Dialogue Summarization에 대해서 다루었습니다. 라벨링 되어 있지 않은 대화 문의 경우 기존의 Template-based approach, labeled auxiliary information 이용, conversion to document 등의 방식에 적용되기 어렵습니다. 비지도 기반의 방법론들도 존재하긴 하지만 한계점이 존재하긴 마찬가지입니다. 이에 본 논문에서 제시하는 방법론의 목적은 대화문의 원본과 대화문의 요약본을 통해 동일한 특정 과제를 수행했을 때의 결과가 최대한 비슷하게, 거의 차이가 없도록 하는 것입니다. 결과적으로 원본과 요약본이 서로 동일한 중요 정보를 줄 수 있도록 하는 것으로도 볼 수 있습니다. 이때 특정 과제라 하면 utterance 생성 및 분류를 의미하는데, 총 n개의 utterance 중 n-1개의 utterance가 주어지면 마지막 n번째 utterance를 생성하거나 올바르게 예측하는 과제입니다. 한편, 새롭게 알게 된 것 중 흥미로웠던 것이 있었습니다. 본 과제 중 하나인 요약문 생성에 있어 label이 없으며 argmax 함수를 사용하게 되는 상황에서는 학습이 제대로 이루어지지 않기 때문에, 정확히는 미분불가능 하기 때문에 Straight-Through Gumble Estimator라는 기법이 이용되는 것을 확인하였습니다. 개인적으로 잘 알고 있다면 유용할 것이라 생각이 듭니다. 모든 비지도 학습이 그러하듯 deterministic한 평가 지표가 없기에 Loss를 구하는 과정을 집중하는 것이 본 방법론을 발전시키는데 영향이 있을까하는 생각이 들었습니다.
논문 소개와 함께 발표자님의 개인 연구 사항도 함께 공유 되었는데, 발표자의 개인 연구에 참고한 논문을 소개하며 논문에서 발견한 아이디어를 개인 연구에 적용시킨 것을 공유하는 모습은 제가 생각하는 이상적인 세미나 발표의 모습과 아주 흡사한 것 같습니다. 훌륭한 발표를 보여주심에 감사드립니다.
이번 세미나는 논문 제목에도 드러나듯 Dialogue Summarization을 다루는 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy 논문에 대한 내용으로 진행되었습니다. 논문에선 dialogue summarization task가 부족한 labeled data와 짧은 대화문장, 애매한 target summary 등의 한계점이 있다고 지적하며, 요약문의 성능을 확인하기 위해 other task의 성능을 확인하는 방식을 제안합니다. 사용된 other task는 n-1번째까지의 utterances와 이에 대한 summary를 각각 입력으로 하여 n번째의 utterance의 generation, classification 성능을 비교하는 것입니다.
Dialogue를 설명할 수 있는 semantic feature를 잘 표현하면서 문장의 형태가 되도록 한 것이 summary임을 생각할 때, auxiliary task의 성능을 측정하는 것으로 representation 성능은 검증할 수 있지만 생성된 요약문이 자연스러운 문장이 되는지도 검증할 수 있는지에 대한 의문이 들었습니다. 논문에선 이러한 정성적인 확인도 진행했다고 하는데 발표자분께서 언급하셨듯 이 결과가 상세히 나와있지 않은 점은 아쉬운 것 같습니다. 기존 개인 연구의 해결을 위해 관련 연구를 찾아보고 다른 연구의 아이디어를 개인 연구에 적용해나가는 일련의 과정에 대해 잘 설명해주셔서 앞으로의 개인 연구에도 도움이 될 것 같습니다. 좋은 발표 감사합니다.
이번 세미나는 dialogue summarization task를 다루고 있는 'RepSum'을 주제로 진행되었습니다. 본 논문은 label이 충분하지 않은 경우 기존 방법론들을 거의 사용할 수 없다는 문제점을 해결하기 위해 unsupervised 방법으로 제안하고 있습니다. n-1개의 utterance를 이용해 n번째 utterance를 생성하는 generation과 실제 n번째 문장인지 classification을 진행하고, n-1개의 utterance로 만든 summary와의 generation loss와 classification loss 도출하였습니다. extractive summarization으로는 SummaRunner와 유사하게 각 문장마다 binary label을 부여하고, 1로 선택된 문장을 선택하는 방식을 사용하고, Abstrative summarization으로는 Gumbel distribution으로 부터 단어를 샘플링하여 auxiliary loss를 사용하였습니다. 여러 논문들을 서치해서 얻은 아이디어들을 발표자분의 개인연구에 적용하려고 노력하는 모습이 항상 멋있다고 생각하고 있습니다. 좋은 발표 감사합니다.
금일 세미나에서는 ACL 2021에서 발표된 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy에 대해 알아보았습니다. Auxiliary task를 통해 n번째 문장을 생성하고 또 분류하는 학습을 진행하며 최종적으로 이를 활용하여 SummaRunner와 유사하게 extractive summarization을 진행합니다. 발표자께서 auxiliary task의 정성적인 생성 성능에 대한 의구심을 표한것으로 기억하는데, 개인적으로는 실질적으로 엉망인 문장이 생성됐더라도 해당 loss를 받아 생성된 최종적인 output이 보기에 괜찮다면 중간 결과물이 꼭 사람이 원하는 형태가 되지 않더라도 문제가 없지 않을까 라는 생각이 들었습니다.
금일 세미나에서는 Dialogue Summarization 관련된 논문인 "Unsupervised Dialogue Summarization based on Replacement Strategy" 를 소개해 주셨습니다. 해당 논문은 대화에서 효과적으로 요약문을 생성하기 위하여 레이블이 없는 대화를 활용하여 요약문을 생성하는 새로운 Auxilary Task를 정의하였습니다. 이 방법은 우수한 요약은 원본과 내용이 비슷할 것이라는 가정에서 시작되어, 대화의 일부분을 요약문을 생성하는 리소스로 사용하고, 일부는 비교하는데 활용합니다. 그리고 요약문과 비교에 활용된 문장의 차이를 KL-Divergence를 활용하여 측정한 후 최소화함으로써 모델을 학습합니다. 이렇게 학습된 모델은 여러 Turn을 갖고 있는 대화에서 원본과 유사하지만 조금 다른 문장을 생성할 수 있습니다. 흥미로운 접근 방법이지만, 생성된 문장이 자연스러울 수 있도록 제약하는 조건이 없고 정성 평가 결과가 없으므로 실제로 잘 사용될 수 있을지는 의문감이 듭니다. 좋은 발표 감사합니다.
금일 세미나는 “RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy”으로 Dialogue의 핵심 내용에 대한 추출/생성요약문을 만들어내는 방법론에 대한 내용이었습니다.
이전에도 Dialogue의 핵심 내용에 대한 추출/요약하는 다양한 연구들이 사전에도 있었지만, 이들은 label이 충분하지 않은 경우 기존 dialogue summarization 방법론은 거의 사용할 수 없다는 단점이 있었습니다. 이를 극복하기 위해 Unsupervised dialogue summarization 방법론이 등장하지만 마찬가지로 많은 한계점들이 존재하였습니다.
이에 본 논문은 “우수한 요약은 auxiliary task를 완료하기 위한 동등한 정보를 제공하는 원래의 대화를 의미적으로 대체할 수 있다.”라는 새로운 의견을 제안합니다. 발표 때 질문 드렸던 것처럼 abstractive에 extractive를 fake summary loss에 이용한다는 것이 모델의 성능의 향상시키는 데에는 중요한 역할을 수행할 수 있을지 몰라도, 연산 속도나 실제 현실에서 사용될까 과연 유용한 loss일까 호기심이 생기네요. 좋은 발표 감사합니다!
본 세미나는 일반 문서를 요약하는 Summarization Task가 아닌 대화문에 대한 요약을 진행하는 Task에 대한 기법 소개였으며, Dialogue를 포함하는 점에서 현재 발표자가 진행하고 있는 DST 프로젝트와 연관성이 있습니다. 대화문 요약은 여러 turn으로 구성된 대화의 핵심 정보를 추출하여 간결한 표현으로 요약하는 과정이며 일반적으로 짧은 utterance로 인해 난이도가 더 높습니다. RepSum은 이에 대하여 단순 요약 대신, 다음 Turn의 utterance를 예측 또는 생성하는 Auxillary Task를 추가하여 성능을 향상 시키며, 기본 가정은 원문으로부터 핵심을 잘 추출하여 요약을 진행하였다면 Downstream Task의 성능도 유사할 것이라는 가정입니다. 또한 Unsupervised Based Model이기 때문에 훈련을 위한 정답 요약문을 Extractive (SummaRunner와 유사하게 sentence binary classification을 적용) 또는 Abstractive (Straight-Through (ST) Gumble Estimator를 통한 각 단어 Sample) 요약을 통해 생성합니다. 자신의 목적에 맞는 논문을 적절하게 찾아 실험에 적용하고 그런 행동을 연구실 전체와 공유하는 모습이 대단하다 생각하며, 좋은 발표 감사합니다.
금번 세미나에서는 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy이라는 논문에 관하여 소개해주셨습니다. 보통 레이블링이 없는 dialogue의 경우 비지도 학습 기반으로도, 그렇다고 target 자체의 모호함 등으로 인해 기존의 summarization 방법론을 상요하기 어렵다는 한계를 갖습니다. 그래서 굉장히 흥미롭고 직관적인 방법론을 제안하는데, dialogue generation과 같은 다른 auxiliary task를 수행하는 데에 있어 '좋은 요약'이라면 원본 dialogue와 유사한 정보를 제공할 수 있다는 가정하에 또다른 task를 이용해 성능을 측정하고자 하였습니다. 방법론은 앞의 n-1개 utterance, 그리고 그 요약을 각각 이용해 n번째 utterance를 생성하고 classification/generation loss를 계산하여 학습에 사용합니다. 이러한 학습 방식에 기반이 되는 summarization, 즉 궁극적으로 앞선 auxiliary task를 통해 학습하고자 하는 요약 모델은 extractive, abstractive 방법론을 적용해 본 것 같은데, sota급의 모델이 아니라도 domain에 맞추어 참 흥미로운 아이디어를 생각해냈구나 싶었습니다. 관련되어 연구 주제를 생각해볼 때 많은 도움 될 것 같습니다. 좋은 발표 감사합니다.
오늘 세미나는 dialogue summarization을 위해 제안된 unsupervised 방법인 RepSum에 대한 내용으로 이루어졌습니다. RepSum은 원문과 동일한 정보를 저장하고 있는 요약문이 좋은 요약문이라는 가정 하에 설계되었습니다. 따라서 현재 시점까지의 summary와 dialogue를 기반으로 다음 utterance 문장을 예측하여 정답 문장 여부를 classification 하도록 학습합니다. 이때 summary와 dialogue 기반으로 예측한 utterance 분포 차이를 KL divergence로 정의하여 loss에 추가하였습니다. extractive summarization 방법을 사용하였고, 추가적으로 auxiliary data를 사용하여 abstractive summarization이 가능하게 하였습니다. 데이터의 구조적 특징을 학습에 어떻게 반영할 것인가가 중요한 요소인 것 같습니다. 좋은 발표 감사합니다.
긍일 세미나는 "RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy"라는 주제로 진행되었습니다. 본 발표에서는 일반적인 문서 요약과 다르게 여러 turn으로 구성된 문장의 핵심 내용을 추출하는 Dialogue Summarization task가 소개되었고, 해당 task에서 좋은 성능을 도출한 모델 RepSum이 소개되었습니다. RepSum은 unlabeled 상황에서 대화를 활용하여 auxiliary task를 정의하고 이를 최적화하는 과정을 통해 적절한 요약문을 추출 및 생성하는 모델입니다. 해당 모델은 좋은 요약문이 downstream task에서 요약하기 전 대화문과 동일한 정보를 갖고 있다는 가정을 기반으로 했으며, 세부적으로 요약문과 대화를 기반으로 다음 utterance 문장 예측을 통해 정답 문장 여부를 분류하는 auxiliary task를 정의하고 utterance의 분포 차이에 대한 KL divergence loss를 사용하여 이를 수행하는 과정을 통해 요약문을 추출 및 생성하였습니다. 개인적으로는 auxiliary task를 통해 목표가 되는 task를 수행한 점이 모든 연구 분야에서 차용할 수 있을 것 같다는 생각이 들어 인상적이었습니다. 좋은 발표 감사합니다.
본 발표에서 Dialogue Summarization 관련 논문을 소개해 주었습니다. 논문의 제목에서도 알수 있듯이 unlabeled 상황에서 요약문을 추출 및 생성하는 모델을 설계합니다. 최근 auxiliary task 를 적절하게 수행하여, 색다른 아이디어를 적용하는 비지도학습을 수행하는 경우가 많았는데, 해당 논문도 유사한 흐름으로 진행됩니다. KL-Divergence를 활용하였고, 해당 아이디어는 좋은 요약문은 원문의 정보를 내포할 것을 가정하기 때문에 접근이 합리적이였고, 비슷한 아이디어로 최근 다양한 분야에서 눈문이 많이 나오는 것을 보아 활용도도 높은 것 같습니다.
이번 세미나는 ACL 2021에 accept된 논문 RepSum: Unsupervised Dialogue Summarization based on Replacement을 주제로 진행되었습니다. 대화 요약(Dialogue Summarization)은 여러 turn으로 구성된 대화의 핵심 정보를 추출하여 간결한 표현으로 요약하는 task입니다. 문장이 상대적으로 짧으며 화자들의 상호작용이 반영되어 있기 때문에 기존의 문서요약보다 어려운 task라는 특징이 있습니다. 이전 연구의 접근 방식은 1. Template-based approach로 입력구조가 사전에 정의되어 있고 특정 도메인에 한정적이라는 특징을 가지고 있으며, 2. 요약과 독립적인 task로 취급받던 dialogue act classification을 활용하여 라벨링된 보조 정보를 통해 더 나은 요약문을 생성하고자 했으며, 3. discourse labeling을 수행하여 기존 대화를 문서 형식으로 변형했습니다.
본 논문은 비지도 기반 방법론의 한계로 한정된 단어 수(추출 요약)과 인풋과 타겟 요약문 간의 작은 차이(생성 요약)을 거론하며, 좋은 요약문은 원문을 잘 대체할 것이다 라는 아이디어를 바탕으로 새로운 모델 RepSum을 제안하였습니다. Repsum은 n번째 utterence를 분류하고 생성하는 auxilary task를 정의하여 label이 존재하지 않은 상황을 극복하고자 했습니다. utterance를 생성하는 Generation task의 경우 인코더(Bi-LSTM)와 디코더(LSTM)으로 구성되어 있으며, 전체 대화를 concatenate하여 인코딩하고 attention을 활용하여 n번째 문장을 디코딩합니다. dialogue loss와 summary loss를 각각 계산하고 KL divergence loss를 추가하였습니다. 이어서 classification task의 경우 k개의 후보군 utterance를 미리 생성하고 Bi-LSTM을 인코더로 활용합니다.
다음으로 비지도 기반 추출 요약에서는 각 utterance마다 sentence 이진 분류를 수행하여 1로 분류되는 문장을 추출 요약문으로 선정합니다. 생성 요약의 경우 추출 요약보다 다소 복잡한데, vocab 분포에서 등장확률이 높은 단어를 샘플링하고 이때 argmax의 미분 불가성으로 인해 Gumble softmax를 도입했습니다. 또한, 수렴의 어려움을 극복하고자 Fake summary generation loss와 language modeling loss를 추가했습니다.
본 논문의 경우 발표자께서 진행하신 ACL/EMNLP 2021 연구실 내부 세미나에서 미리 다뤄주셨고 당시 흥미롭게 들었던 기억이 있습니다. 이번 세미나를 통해 더욱 세세한 설명을 접할 수 있어 좋았습니다. 유익한 발표 진행해 주셔서 감사합니다.
이번 세미나는 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy 에 대한 세미나였습니다. 본 논문에서 제안하는 모델은 뛰어난 서머리는 기존 대화 내용을 대체할 수 있으므로, 다른 axillary task를 진행했을 때 성능이 비슷하다는 가정하에 구축한 모델입니다. 비지도 학습 기반 dialogue summerization을 하는 모델이며, generate, classification을 서머리한 결과와 원본 대화 내용에 각각 적용하여 그 둘의 차이를 줄이는 형태입니다. 또한 요약도 추출 요약과 생성 요약으로 나누어 각각의 모델을 살펴보았는데, 생성 요약의 목적함수는 fake summary generation loss와 language modeling loss를 추가하는 형태입니다. 현재 회의 요약을 할 수 있는 모델에 대한 대회 등 DST를 사용하는 니즈들이 많이 증가하고 있으므로, 유망한 분야인 만큼 유익한 세미나였습니다. 감사합니다.
이번 세미나에서는 여러 Turn으로 구성된 대화의 핵심 정보를 추출하여 요약하는 것을 목적으로 하는 RepSum에 대해 소개해 주셨습니다. 우선적으로 아이디어가 매우 직관적이라고 느껴졌습니다. 좋은 요약문이라면 원본 데이터의 특성을 잘 보존하고 있어, 요약문을 이용하여 다른 Task를 수행할 때 좋은 성능을 보일 수 있을 것이라는 가정 하에서 논리를 전개합니다. 이를 위해 저자들은 LSTM 기반의 Summarization Model을 설계하고, 원본 대화 데이터와 요약문을 각각 Utterance Generation과 Classification을 위한 Input으로 사용하여 차이를 줄이는 방식으로 Loss를 부과합니다. 개인적으로 BLEU와 같이 문장 내의 Token의 Matching 정보들을 이용하는 방식이 좋은 평가 지표는 아니라고 생각하고 있었는데, 해당 논문에서 제안된 다른 Task를 수행하는 과정에서 성능의 차이를 이용하여 문서 요약 등의 Task를 평가할 수도 있겠다는 생각이 들었습니다. 좋은 논문을 소개해 주셔서 감사합니다.
금일 세미나는 비지도 학습 방법으로 dialogue summarization 방법을 제안하는 ACL 2021에서 발표된 “RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy” 논문에 대해 소개해 주셨습니다. 논문에서 제안하는 방식은 auxiliary task를 추가적으로 구성하여 요약문을 생성한다는 방식이 새로웠습니다. N-1개의 대화문을 통해 대화문은 요약하는 모델을 구성하고 모델의 출력값을 다시 auxiliary task를 수행하여 N-1개의 대화문을 통한 task와 같은 성능을 내도록 학습하는 방식이 신선했습니다. 본 논문에서 얻은 아이디어를 기반으로 개인연구에 적용하고 꾸준히 실험을 진행하며 많은 시행착오를 겪는 모습이 멋있었습니다. 앞으로 좋은 결과도 함께 생기길 바라겠습니다. 좋은 발표 감사합니다.
금일 세미나는 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy 연구를 중심으로 진행되었습니다. 본 연구는 대화요약(dialogue summarization) 벤치마크 데이터셋에서의 문제점을 지적하며, 새로운 관점에서 데이터셋을 구축하는 것이 필요하다는 포인트를 갖고 있습니다. 여기서 새로운 관점이란 generation의 관점을 이야기 합니다. 즉, label이 없는 여러 턴의 대화데이터의 본질을 학습하고, 이를 새로운 대화 데이터로 생성해가는 것입니다. 본 연구는 이러한 생성 모델에서 얻은 데이터를 통해 Unsupervised 접근에서 최적화를 이뤄내기 위해 다양한 auxiliary task를 정의하고 해결해갑니다. Unsupervised 접근을 담고 있기 때문에, label 데이터 없이도 생성 관점에서 최적화를 위한 학습데이터를 만들어가는 구조가 신선했습니다. 그리고 이를 위해 간단하지만 부가적인 auxiliary task를 활용하는 것도 인상적이었습니다. 더욱이 생성요약 부분에서 최적화를 위해 또 새로운 task를 정의, Fake summary generation loss, Language modeling loss를 학습시킨 것도 인상 깊었습니다. 기존 연구와 벤치마크 데이텃세의 문제점을 파악하고, 이를 해결하기 위해 정말 많은 노력과 창의적인 접근을 시도해간다는 생각이 들었습니다. 한가지 아쉬웠던 점은 발표자분께서도 언급해주셨지만 정성적인 평가를 확인하기 어려웠다는 점입니다. 대화 요약문 이기에 정성적인 평가도 꽤나 중요한 기준이 될 것 같아, 이 부분이 확인될 수 있다면, 정말 좋은 접근임을 확신할 수 있을 것 같습니다. 어려운 내용 항상 이해하기 쉽게, 핵심을 잘 짚어 설명해주셔서 발표자님께 감사드립니다. 좋은 발표 잘 들었습니다.
이번 세미나에서는 RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy 라는 주제로 발표해주셨습니다. 기존 approach 는 1. Template-based approach by extracting keyi nformation and filling it into the learned templates 2. Assistance from label edauxiliary information for summary generation 3. Convert the dialogue into a document (Discourse labeling task를 수행하여 기존 dialogue를 document form으로 변형) 의 3가지 단계로 이루어졌습니다.
기존 연구에서는 Label 이 충분치 않은 경우 기존 방법론을 거의 사용할 수 없었으며, extractive한 제약(dialogue utterances 의 제한된 단어)과 abstractive한 제약(input text와 target summary간 작은 차이)으로 많은 한계점이 존재했습니다. RepSum 모델의 제안은 우수한 summary가 original dialogue를 대체할 수 있다는 아이디어로부터 시작합니다. Label이 없는 상황에서 dialogue를 활용하여 새로운 Auxiliary task - n번째 utterance를 생성(TG, 전체 dialogue를 concatenate하여 인코딩, Attention을 활용하여 문장 디코딩) / 분류(TC, k개의 후보 utterance로 부터 n번째 utterance를 분류) - 를 정의하고, 이를 최적화함으로써 적절한 summary를 추출/생성해냅니다.
개인 연구에 적합한 논문을 찾아 적용해보고 개선 Point를 세미나를 통해 공유해주시는 모습이 인상깊었습니다. 좋은 발표 감사합니다.