[Paper Review] Extractive Summarization as Text Matching

Paper Review
작성자
Yukyung Lee
작성일
2020-11-11 00:14
조회
3823
1. Topic

Extractive summarization에서 text matching을 진행한 모델인 Matchsum 소개

2. Overview

기존의 요약 모델은 sentence level로 scoring을 통해 문서를 요약한다. 본 논문은  다음과 같은 방법이  source document와 target summary사이를 적절히 고려하지 못한 요약이라 주장하며, 데이터셋의 특성에 따라 sentence score가 높은 문장이 실제로 document를 대표하지 못하는 경우가 있다는 문제점을 제기한다. 따라서 위 모델은 summary level로 문서를 요약할 때 pearl summary 개념을 도입하여 어떤 문장이 가장 문서를 대표할 지 결정하며 정량적으로 summarization benchmark dataset이 setence level과 summary level의 summarization중 어떤것에 적합한지 판단한다.

본 모델은 source document와 target summary가 의미적으로 유사할 수 있도록 학습을 진행한다. 이 과정에서 candidate summary를 생성하여 target summary가 만들어지기 전 pruning을 거치게되며, pruning에는 Presumm model (BertExt, Presumm 에서 제안된 extractive summarization 모델이며 본 모델은 Bertsum 논문에서 발표된 모델과 동일 ; 동일저자의 후속 논문)을 활용한다. 또한 siamese network를 가진 siamese bert를 제안하여 summarization을 진행하며 margin based triple loss를 통해 source document, candidate summary, target summary를 유사하게 학습한다.

본 세미나는 신경망 기반의 Extractive summarization 개념을 간략히 정리한 후 Matchsum을 소개한다.

3. 발표자료 및 발표영상

[1] 발표자료 (하단 첨부파일)

[2] 발표영상 : ">Link

4. 참고 문헌

Extractive Summarization as Text Matching Link
전체 19

  • 2021-01-20 23:16

    금일 세미나 시간에는 이유경 석사과정이 Extractive Summarization as Text Matching 논문의 MatchSum이라는 방법론에 대해서 다루어 주었습니다. 기존 문서요약 모델 구조에서 벗어나 source와 summary사이의 의미적 유사도를 강조하였으며, 기존의 sota모델을 활용한 Candidate summary로부터 pruning을 통해 좋은 candidate summary를 구성하였습니다. 이러한 후보군과 source사이에 cosine similarity를 최적화 하는 모델을 통해 좋은 성능을 거두었습니다. 사실 고 Source document와 candidate summary 사이에서의 embedding 학습을 위해 cosine similarity를 사용한 근거가 궁금하여 다시한번 읽어보고 싶어보고자 합니다. 연구실 구성원의 연구분야가 확장되면서 매 세미나 마다 다른 도메인의 연구들을 접하게되는데, 개인연구를 하다보면 다른 분야의 연구들을 놓치는 경우가 많습니다. 최근 문서요약 연구 근황도 접할 수 있는 뜻깊은 시간이였다고 생각합니다. 감사합니다.


  • 2020-11-16 14:25

    기존의 추출요약 모델들은 대부분 문장을 한 개씩 선택해 순서대로 점수를 매깁니다. 본 논문은 이러한 방식을 sentence-level score로 정의하고 이러한 방식이 찾아낼 수 없는 pearl-summary를 정의합니다. pearl-summary는 정답 요약문의 개별 문장을 고려한 sentence-level score는 낮지만 문장을 한꺼번에 고려한 summary-level score는 높은 문장을 의미합니다. 이러한 pearl-summary도 잘 학습하기 위해 저자들은 먼저 summary candidate들을 뽑아낸 뒤 이들의 summary-level score를 이용하는 triplet loss 기반의 추출요약 모델을 제안합니다. 제안한 방식을 통해 모델을 학습했을 때 기존의 모델들보다 rouge score 기준으로 높은 성능을 기록했습니다. 개인적으로 pearl-summary의 개념과 이를 뒷받침하는 실험들이 참신하게 느껴졌고 본 논문의 방식을 응용해 여러 가지 후속연구를 진행해볼 수 있을 것 같다는 생각을 했습니다. 좋은 논문을 소개해주셔서 감사합니다.


  • 2020-11-16 21:04

    이번 세미나에서 발표된 내용은 source와 target이 있을 때 사용되는 방법론에 대해서 설명하였습니다. 문장별로 선택되는 요약은 document와 summary사이를 제대로 표현하지 못한다는 주장으로 시작하여, source document와 target summary의 연관성을 표현하는 방법론을 설명하였습니다. 이 과정에서 candidate summary를 생성하여pruning을 과정을 거치게 되면 triple loss를 활용하여 같은 클래스간의 거리는 가깝게 다른 클래스간의 거리는 멀게 임베딩하는 방법에 대해서 소개해 주셨습니다. 항상 재미있고 유의미한 연구를 발표해주셔서 감사합니다.


  • 2020-11-17 15:08

    Summarization 의 task에서 생성모델이 아닌 추출모델(Extractive model)에 관해 집중적으로 다룬 세미나입니다. 개인적인 생각으로는 궁극적으로 나아갈 방향은 생성모델(Abstractive model)이라고 생각하지만, 추출모델에서 어떻게 요약문장을 선택할 지에 대해 아이디어들을 제시합니다. Matchsum 논문에 대해 발표하였는데, 본 논문의 주된 아이디어는 문장마다 독립적으로 score를 산출하는 것이 아닌, 문맥 관계를 고려하여 source와 summary를 유사하도록 학습합니다. 이를 위해 샴넷 구조를 활용하여 학습하였으며 feature를 뽑는 역할은 BERT로 대체한 것을 볼 수 있습니다. 방법론 자체는 샴넷, 버트를 잘 융합하여 golden summary에 가깝도록 학습하고, 상대적으로 중요도가 떨어지는 후보군의 summary는 패널티를 주는 것을 loss function에서 볼 수 있습니다. 개인적으로 방법론보다 논문의 플로우에 많은 감명을 받았는데, 데이터 셋마다 특성을 구분할 수 있는 지표를 제안하고 본인만의 생각으로 문제점을 보완했다는 것입니다. 항상 좋은 발표 감사합니다.


  • 2020-11-17 20:17

    본 논문에서는 단순히 스코어가 높은 요약문이 좋은 요약문으로 선택되는 것이 아니라 실제 요약문과 의미적으로 유사한 것이 선택되어야 한다는 Semantic text matching 문제를 정의합니다. 기존 추출요약 문장에는 없는 summary-level score를 도입하는데, 이는 요약문 전체의 의미적인 스코어를 의미합니다. 일반적인 sentence-level 요약문에서 각 문장과 gold 요약문의 rouge score 평균을 구하였다면, summary-level에서는 candidate summary 전체와 gold 요약문의 rouge score를 비교합니다. "요약이 정말 잘 되었는가?", "요약 모델의 score를 믿을 수 있는가?"에 대한 의심을 새로운 개념을 도입함으로써 잘 검증하였다고 생각합니다. 또한 semantic space 내에 본 문서, 요약문 후보, 그리고 정답 요약문의 관계를 더 가깝게 하기 위해 제안한 siamese-BERT를 제안하였습니다. 논문에서 제안한 방법론 자체는 굉장히 흥미로워서 오히려 논문에서 마저 소개하지 않은 방법론의 맹점이나 단점이 무엇일까 궁금해지는 발표였습니다. 좋은 발표 감사합니다.


  • 2020-11-20 14:26

    금일 세미나 주제는 Extractive Summarization 입니다. 기존 text Summarization 방법론들은 문장을 한개씩 선택하여 순서대로 점수를 산출하고 그중에서 높은 점수의 문장을 선택하는 방식을 취하고 있습니다. 오늘 설명해주신 논문에서는 이러한 방법론의 문제점을 지적하며 개별 문장의 점수는 낮지만 함께 고려하였을 때 요약점수가 더 높은 사례를 제시하고 있습니다. 해당 논문은 이를 pearl-summary라고 정의하며 이를 해결하기 위하여 triplet loss 기반의 추출요약 모델을 제안합니다. 또한 기존에 Sota를 달성한 모델인 BERTSUM을 이용하여 일부 문장을 제거하는 candidate pruning 방법을 적용하고 높은 성능을 얻을 수 있었습니다. 재미있게 설명 잘 해주셔서 감사합니다.


  • 2020-11-21 11:46

    본 세미나는 앞에서 Extractive summarization 개념을 간략히 정리한 후 Match Sum을 소개하였습니다. Extractive summarization의 개념을 몰랐는데 앞에서 정리해 주셔서 이해하는데 많이 도움이 되었습니다. 기존의 Extractive summarization 모델들은 대부분 문장 단위로 순서대로 점수를 매깁니다. 본 논문에서는 이러한 방법들을 source document와 target summary사이를 적절히 고려하지 못한 요약이라 주장합니다. 이에 summary level로 문서를 요약할 때 pearl summary이라는 개념을 도입하여 어떤 문장이 가장 문서를 대표할 지 결정하며 정량적으로 benchmark dataset이 sentence level과 summary level의 요약 중 어떤 것에 적합한지 판단하는 방법을 제안합니다. 또한 siamese network를 가진 siamese bert를 제안하여 summarization을 진행하며 margin based triple loss를 통해 source document, candidate summary, target summary를 유사하게 학습할 수 있도록 하였습니다. 좋은 발표 들려주셔서 감사합니다.


  • 2020-11-23 15:28

    이번 세미나는 extractive summarization 분야에서 summary-level score라는 새로운 개념을 제시한 MatchSum에 관한 발표였습니다. 해당 연구는 extractive summarization 수행 시 문장 단위로 수행되던 추출 및 성능 평가에 의문을 제기하고, scoring의 candidate를 summary 단위로 설정하여 문서 요약을 수행하였습니다. 즉, 여러 문장으로 이루어진 여러 summary 후보군을 설정한 후 해당 후보군 중 가장 적절한 summary를 선택하겠다는 전략입니다. 사실 처음 방법론에 대한 설명을 들었을 때는 후보군을 적절하게 선택하는 것이 매우 중요하겠다는 생각이 들어 어떤 방식으로 이를 처리했을지가 궁금했는데, 기존의 모델인 BERTSum을 활용하여 pruning을 진행한 것을 보고 약간은 아쉽지만 연구 관점에서 더 효율적인 접근이라는 생각도 들었습니다. 구현 방식이 구체적으로 떠오르지는 않지만, 후보군 선정 또한 end-to-end로 설계할 수 있다면 summary-level scoring의 효과가 더욱 커지지 않을까 싶습니다. 발표 감사합니다.


  • 2020-11-24 00:59

    본 세미나는 추출요약의 목적인 '요약 문장 찾기'를 문장들간의 관계만을 통해 탐색하는 것이 아닌, 실제 요약문과의 유사도를 통해 찾는 것에 더 집중하고자 하는 MatchSum에 대한 내용이었습니다. 실제로 추출 요약을 해보면 추출된 문장들이 나름의 근거를 통해 중요하다고 판단이 되지만, 하나로 만들어 읽어보면 독립적으로 영향력을 나타내어 '하나의 요약문'이 아닌 연관 문장들의 열거라고 느껴질때가 있었습니다. 따라서 MatchSum에서는 추출한 문장들의 개별 중요도보다는 요약문으로서의 역할을 강조하기 위하여, 요약문장 총합과 Gold Summary와의 비교를 통해 추출합니다. 그리고 그것을 Siamese-Bert를 활용한 Cosine similarity를 최적화를 통해 달성하는 것을 살펴보았습니다.
    생성요약이 추출요약보다 더 Ideal한 Solution이기에 추출요약의 성능이 좋지 않으면 생성요약으로 해결하는 단순한 생각보다는 다른 길로 최선의 길을 선택하는 본 논문이 재밌었으며, 좋은 발표를 꾸려주신 발표자님께 감사드립니다.


  • 2020-11-30 04:52

    이번 세미나에서는 문장 수준에서 scoring하는 기존 summerization model에는 점수가 높은 문장이 실제로는 그 문서를 대표하지 못한다는 한계가 있다고 주장하며 extractive summerization에서 summary 수준의 scoring을 통한 MatchSum에 대한 발표가 이루어졌습니다. 문장 단위의 추출과 평가보다, 문장의 점수가 낮더라도 다른 문장과 결합하면 summary 점수가 더 높은 경우에 대해 pearl summary라고 정의하고, 이들의 후보 summary를 추출해 각각의 summary와 target summary의 rouge score를 비교하여 학습합니다. margin based triplet loss를 사용해 점수 차이가 특정 margin을 넘어야 함을 학습하여 더 좋은 성능을 추구하고 있습니다. 논문의 논리 전개가 분명하여 이해가 수월했습니다. 또한 발표자님의 자세하고 친절한 설명 덕분에 더 잘 이해할 수 있었습니다. 좋은 발표 감사합니다.


  • 2020-12-10 10:31

    이번 세미나는 이유경 석박통합과정의 Text Summarization과 관련한 발표였습니다. 소개해주신 논문은 Extractive Summarization as Text Matching이라는 논문으로 추출요약 task를 Semantic Text Matching problem으로 접근한 논문입니다. 기존에 제안되었던 문장 단위의 추출 방법은 최적의 요약문이 아니라고 주장하면서, Gold Summary와 실제 문서에서 추출한 후보 요약문들(candidate summary)간의 semantic space에서의 거리가 가장 가까운 추출요약을 matching하는 방법을 제안합니다.
    Extractive summarization task에 대해 새로운 접근방법에 대해 알게 되어 매우 유익한 시간이었습니다. 발표 감사합니다.


  • 2020-12-25 20:03

    당연하게도 extractive summarization에서 문장을 어떠한 기준으로 뽑을것 인가는 매우 중요한 사안입니다. 기존의 방법론들에서는 개별의 문장을 잘 뽑기위한 loss를 제안해왔습니다. 하지만 아무리 독립적인 '문장'들이 전체 문맥의 의미를 잘 내포하고 있더라도 뽑힌 문장들을 묶어 하나의 글로 만들어 내면, 그 글은 어색하기 마련입니다. MatchSUM에서는 이러한 문제를 완화하기 위하여 개별적으로는 전체 글의 의미를 조금 덜 반영하더라도 다른 문장과 함께 있을때 더 시너지가 나는 문장들을 뽑아내는 추출 요약 방식을 제안하였습니다. 아이디어는 좋으나 사용하고 있는 loss들이 vision 분야에서는 안정적이지 않은 것들이라 후속 연구들에서 이러한 loss가 보완이 될 지, 만약에 된다면 어떠한 방향으로 될지 보는 재미가 있을 것 같습니다.


  • 2021-02-15 14:00

    이번 세미나에서는 기존 추출요약이 갖는 한계점을 극복하고자 MatchSum이라는 방법론에 대한 소개를 해주셨습니다. 기존 추출요약의 경우 주로 문장 단위로 요약문을 생성하는데, 단어 단위로 문장을 생성하는 task와 달리 이는 전체적으로 봤을 때 어색한 문장 묶음을 생성할 가능성이 있습니다. 따라서 MatchSum은 pearl summary를 이용하여, 전체적인 요약문의 score가 높은 것을 최종 결과물로 채택하는 방법론이 됩니다. BERT에 대해 자세한 지식이 없어 완벽히 이해하기는 어려웠지만, 이미 존재하는 방법론들을 통해 목적에 맞는 최종적인 방법론을 생성해낸다는 점이 인상적이었습니다. 앞으로도 좋은 연구 및 발표 기대하겠습니다.


  • 2021-01-02 21:49

    금일 세미나에서는 text summarization 에서 활용되는 MatchSum 모델에 대한 리뷰로 진행되었습니다. Source document 에서 문장을 추출 후 그 문장 간의 관계를 모델링했던 문장 단위의 기존 방법과는 달리, summary level 의 평가를 제안합니다. MatchSum 은 먼저 정량적으로 semantic similarity 를 기반으로 candidate summary를 추출합니다. 이후 source 와 target document 가 의미적으로 유사해지도록 학습합니다. 문장마다의 score 를 계산하지 않고, semantic context를 고려하여 source 와 의미적으로 유사한 summary를 찾도록 학습시켰다는 점이 인상적이었습니다. 발표 초반에 문서요약에서의 초기 모델들에 대한 설명을 해주셔서 왜 MatchSum 이 필요했는지에 대해 이해할 수 있어 좋았습니다. 좋은 발표 감사합니다.


  • 2020-11-12 16:58

    이유경 석사과정의 세미나 발표를 들었습니다. 오늘 발표 해주신 논문은 ACL 2020에 Accept 된 논문인 Extractive Summarization as Text Matching 논문이었습니다. 해당 논문에서는 MatchSum이라는 모델을 제안하였습니다. 기존의 방법론들은 Source 문서에서 독립적으로 문장을 추출하고 문장들 사이의 관계를 모델링 하였는데 이 부분에 대해서 본 논문의 저자들은 문제를 제기하였습니다. MatchSum 은 이러한 문제를 해결하기 위해 source 문서와 summary 사이의 의미적 유사도를 높여줄 수 있도록 모델을 구성하였습니다. 구체적으로는 Siamese-Bert 구조를 활용해서 Source 문서와 Candidate Summary 사이의 Cosine Similarity 를 최적화할 수 있도록 Margin based Triplet Loss 를 사용했다고 합니다. 비교적 간단한 아이디어에, 기존에 많이 쓰이던 구조를 활용해서 좋은 성능을 낸 것으로 보아 아이디어가 깔끔하고 좋았던 논문이라고 생각합니다. 발표 잘 들었습니다. 감사합니다.


  • 2021-01-03 17:06

    이번 세미나는 text summarization 방법인 MatchSum에 대한 리뷰였습니다. 기존의 방법론들은 각 문장을 점수화하여 추출하고, 문장간의 관계를 모델링하고, 전체 document에서 몇개의 문장을 선택하여 추출할지를 결정했습니다. MatchSum은 기존 방법론 들에서 더욱 발전하여 Semantic text matching을 통하여 기존 document의 BERT output이 Gold Summary의 BERT output과 유사하는 방법 학습됩니다. 개인적으로는 ranking을 정의하여 best summary를 뽑는 방식이 인상적이었습니다. 또, 이유경 석사과정의 개인연구에 연개되는 내용이면 어떤 방식으로 연결되는지 궁금해지는 세미나였습니다. 감사합니다.


  • 2021-01-04 01:47

    금일 발표는 "Extractive Summarization as Text Matching"이라는 주제로 진행되었습니다. 개인적으로는 연구실 입학 전에 text summarization에 대해 공부하고 프로젝트를 수행한 적이 있어 반가움에 관심을 가지고 발표를 청취하였습니다. 본 발표에서는 데이터셋의 특성에 따라 sentence score가 높은 문장이 실제로 document를 대표하지 못하는 경우가 존재한다는 한계점을 해결하기 위해 pearl summary 개념을 도입하여 특정 문장이 sentence/summary level의 요약 중 어떤 것에 적합한지 판단하는 MatchSum 방법론이 소개되었습니다. 특히 본 방법론에서는 다양한 분야의 방법론들을 조합하여 좋은 성능을 도출한 것이 인상적이었습니다. 논문을 읽을 때 기존에 존재하는 방법론들을 잘 조합하여 좋은 성능을 도출하는 방법론들을 자주 접할 수 있는데, 이러한 결과물들을 보며 여러 방법론들을 접할 때 제 개인연구에 어떻게 적용할 수 있을지에 대해 고민해보는 습관을 가지면 좋겠다는 생각이 들었습니다. 좋은 발표 감사합니다.


  • 2021-01-04 23:37

    이번 세미나에서는 extractive summarization 에 관한 논문으로 발표를 했습니다. 저희 연구실에서 관련 프로젝트를 많이하면서, 다양한 방법을 접하게 되었는데, 특히 오늘 발표에서는 siamese bert 를 이용한 loss function 이 익숙한 개념으로 받아들였습니다. siamese network 의 기본적인 개념은 그대로 차용하되 bert 이용한 weight share 를 하고 ranking 에 따른 margin 을 loss 로 전파 하는것 같았습니다.논문을 직접 구현하면서 더 다양한 이슈가 있겠짔지만, 방법론자체는 누군가는 시도해 봤을것 같은데? 라는 생각이 들 정도로 익숙한 방법들 이였습니다. 또 한번 해당 주제를 들으면서, 자신의 분야에 어떤연구들이 진행되는지 알고, 시도되지 않았거나 완전히 새롭지 않으나 개념을 잘 적용할 수 있는것도 좋은 연구의 방향이 됨을 느낍니다. 좋은발표 내용 감사합니다.


  • 2021-01-13 06:12

    이번 세미나에서는 MatchSum에 대해 소개해 주셨습니다. MatchSum은 Extractive Summarization을 목적으로 하며, Source Document에서 독립적으로 문장을 추출하고, 문장들 사이의 관계를 모델링합니다. 즉, Candidate를 추출하고, Matching하는 두 단계로 구성된 모델입니다. 우선적으로 Rouge Score를 이용하여 Sentence Level Score와 Summary Level Score를 정의한 뒤, Sentence Level Score는 낮지만 Summary Level Score가 높은 Summary를 Pearl Summary로 정의합니다. 즉 Pearl Summary는 문장 단위로 보았을 때는 점수가 낮은 문장을, 요약문 전체를 보았을 때는 점수가 높은 문장을 의미합니다. 이러한 Pearl Summary를 탐지하기 위해 Candidate Summary와 Source Document를 Weight를 공유하는 Siames-BERT에 입력으로 사용하여, 의미적인 유사도, 즉 Cosine Similarity를 가장 크게 할 수 있는 방식으로 학습을 수행합니다. 좋은 요약문은 원본 요약문의 의미를 잘 보존하는 요약문이라는 가정 하에 설계된 모델이라는 생각이 들었으며, 새로운 관점에서 Summarization Task를 수행한 모델로 생각됩니다. 좋은 발표 감사합니다.


전체 501
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 10326
관리자 2020.03.12 0 10326
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 8940
관리자 2020.03.12 0 8940
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 10049
관리자 2020.03.12 0 10049
498
[Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables (6)
Sunghun Lim | 2025.04.24 | 추천 0 | 조회 84
Sunghun Lim 2025.04.24 0 84
497
[Paper Review] Imputation-based Time-Series Anomaly Detection with Conditional Weight-Incremental Diffusion Models (7)
Suyeon Shin | 2025.04.21 | 추천 0 | 조회 81
Suyeon Shin 2025.04.21 0 81
496
[Paper Review] Revisiting Multimodal Fusion for 3D Anomaly Detection from an Architectural Perspective (10)
Woongchan Nam | 2025.04.16 | 추천 0 | 조회 138
Woongchan Nam 2025.04.16 0 138
495
[Paper Review] Your Large Vision-Language Model Only Needs A Few Attention Heads For Visual Grounding (12)
Kiyoon Jeong | 2025.04.16 | 추천 0 | 조회 259
Kiyoon Jeong 2025.04.16 0 259
494
[Paper Review] Reasoning over Time Series with LLMs (13)
Hyeongwon Kang | 2025.04.09 | 추천 0 | 조회 304
Hyeongwon Kang 2025.04.09 0 304
493
[Paper Review] Accurate predictions on small data with a tabular foundation model (16)
Jaehyuk Heo | 2025.04.02 | 추천 0 | 조회 301
Jaehyuk Heo 2025.04.02 0 301
492
[Paper Review] Reasoning and Reinforcement Learning for LLM (15)
Jaehee Kim | 2025.04.02 | 추천 0 | 조회 293
Jaehee Kim 2025.04.02 0 293
491
[Paper Review] LLM based Recommender Systems : EAGER-LLM (19)
Jungho Lee | 2025.04.02 | 추천 0 | 조회 266
Jungho Lee 2025.04.02 0 266
490
[Paper Review] Data-driven discovery of coordinates and governing equations (18)
Hankyeol Kim | 2025.03.25 | 추천 0 | 조회 250
Hankyeol Kim 2025.03.25 0 250
489
[Paper Review] DUET: Dual Clustering Enhanced Multivariate Time Series Forecasting (15)
Sieon Park | 2025.03.19 | 추천 0 | 조회 362
Sieon Park 2025.03.19 0 362

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 허재혁 : jaehyuk.heo@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호