| 번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
| 공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 15457
|
관리자 | 2020.03.12 | 0 | 15457 |
| 공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 14186
|
관리자 | 2020.03.12 | 0 | 14186 |
| 공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 15162
|
관리자 | 2020.03.12 | 0 | 15162 |
| 553 |
[Paper Review] Why CLIP fails at Dense Prediction Task? (3)
Jinwoo Jang
|
2026.04.06
|
추천 0
|
조회 75
|
Jinwoo Jang | 2026.04.06 | 0 | 75 |
| 552 |
[Paper Review] Dynamic Large Concept Models (8)
Jaeyong Ko
|
2026.03.30
|
추천 0
|
조회 147
|
Jaeyong Ko | 2026.03.30 | 0 | 147 |
| 551 |
[Paper Review] Programming Refusal with Conditional Activation Steering (15)
Sunmin Kim
|
2026.03.10
|
추천 0
|
조회 413
|
Sunmin Kim | 2026.03.10 | 0 | 413 |
| 550 |
[Paper Review] Towards a General Time Series Anomaly Detector with Adaptive Bottlenecks and Dual Adversarial Decoders (9)
Sunghun Lim
|
2026.03.01
|
추천 0
|
조회 337
|
Sunghun Lim | 2026.03.01 | 0 | 337 |
| 549 |
[Paper Review] Rethinking the Power of Timestamps for Robust Time Series Forecasting: A Global-Local Fusion Perspective (9)
Suyeon Shin
|
2026.02.25
|
추천 0
|
조회 248
|
Suyeon Shin | 2026.02.25 | 0 | 248 |
| 548 |
[Paper Review] Recent Research Trends Foundation Model for Visual Anomaly Detection (10)
Jaehyuk Heo
|
2026.02.12
|
추천 0
|
조회 503
|
Jaehyuk Heo | 2026.02.12 | 0 | 503 |
| 547 |
[Paper Review] Vision-based and Multimodal Approaches for Time Series Analysis (9)
Hyeongwon Kang
|
2026.02.10
|
추천 0
|
조회 488
|
Hyeongwon Kang | 2026.02.10 | 0 | 488 |
| 546 |
[Paper Review] Introduction to Neural Operator (10)
Hankyeol Kim
|
2026.02.03
|
추천 0
|
조회 595
|
Hankyeol Kim | 2026.02.03 | 0 | 595 |
| 545 |
[Paper Review] Enhancing Time Series Forecasting through Selective Representation Spaces: A Patch Perspective (13)
Sieon Park
|
2026.01.29
|
추천 0
|
조회 594
|
Sieon Park | 2026.01.29 | 0 | 594 |
| 544 |
[Paper Review] ELFS: Label-Free Coreset Selection with Proxy Training Dynamics (13)
Subeen Cha
|
2026.01.28
|
추천 0
|
조회 394
|
Subeen Cha | 2026.01.28 | 0 | 394 |
Unsupervised keyphrase extraction에 대해 소개해주셨습니다. 종류로는 통계 기반, 그래프 기반, 토픽 기반, 임베딩 기반의 기법이 있는데 금일 세미나에서는 문서를 그래프 임베딩으로 표현한 후 노드의 중심성이 높은 phrase를 선택하는 방법론에 대해 소개해주셨습니다. 그보다 앞서 전반적인 방법론에 대한 큰 분류를 정리해주셔서 연구 동향을 잘 파악할 수 있었습니다. 본 논문에서는 phrase 간 관계를 local context, phrase와 doc의 관계를 global context로 설정하여 두 가지를 모두 고려합니다. Phrase를 선택함에 있어 문서 내 위치를 반영한 boundary-aware centrality나 position-based weight 등의 기법도 함께 적용되었습니다. 모델 구조로는 bert를 사용하였으나 task의 속성이 seq2seq 모델에 대한 prompt learning과도 잘 어울리겠다는 생각을 하였습니다. 세미나에서도 언급했지만 데이터셋 별 하이퍼파라미터 값이 다양하게 나타나는 현상은 값의 변화가 downstream task에서의 직관적인 변화와 일치할 경우 충분히 장점이 될 수 있다고 생각합니다. 발표 잘 들었습니다.
이번 세미나는 "Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context"였습니다. 해당 논문은 keyphrase 추출 시 local과 global 정보를 모두 고려한다는 특징을 가지고 있습니다. 우선 특정 명사(구)만 추출하여 BERT의 임베딩을 이용합니다. 이때 문서 전체의 임베딩 벡터와 각 candidate의 임베딩 벡터 간의 유사도를 비교하는 Global Similarity와 문서의 시작 혹은 끝에 위치할 수록 centrality가 높아지도록 유도된 Local Similarity를 이용하게 됩니다. BERT의 contextual embedding의 경우 상당히 고차원이기 때문에 그대로 유사도를 비교하는 것보다 저차원으로 축소하여 비교하면 어떤 결과가 나올지 궁금해지는 논문이었습니다. 이전 세미나에 이어서 Keyphrase Extraction 분야의 논문을 소개해주고 계신데, 이전 세미나에서도 강조되었던 문서 내 keyphrase candidate들의 위치가 이번 논문에서 명확히 사용되는 모습을 보면서 keyphrase와 문서 내 위치가 상당한 관계를 가지고 있다는 점을 다시 한번 느낄 수 있었습니다. Keyphrase Extraction이라는 분야를 연구실에 입학하여 처음 접하면서 상당히 낯설었는데, 발표자 분의 두 번의 발표를 통해 전반적인 개념이 약간이나마 익숙해진 것 같습니다. 좋은 발표 감사드립니다.
본 세미나에서는 Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context라는 논문의 리뷰를 진행하였습니다. Unsupervised Keyphrase Extraction에는 stastics-based, graph-based, topic-based, embedding-based 방식이 있습니다. 본 방법론은 Embedding & Graph-based methodology 였고, global, local context를 모두 고려하여 score를 계산했다는 특징이 있습니다. 또한 graph 기반의 방법론의 경우 centrality를 이용하여 phrase의 중요도를 산출하는데, 본 논문에서는 새로운 방식의 centrality인 Boundary-aware centrality를 제안하였습니다. 이름에서 알 수 있듯이, 문서의 경계에 위치한 phrase의 영향력을 강조하는 centrality 였습니다.
Unsupervised Keyphrase Extraction의 흐름을 알 수 있었던 발표였습니다. 특히 다양한 종류의 방법론을 도식화하여 흐름을 보여준 장표가 인상적이었습니다. 좋은 아이디어를 내어 새로운 방법론을 제안하길 기대해봅니다. 좋은 발표 감사합니다!
이번 세미나는 Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context 논문을 통해 해당 분야의 전반적인 흐름과 논문의 아이디어에 대해 소개해주셨습니다. 사실 label이 없는 상황에서 Keyphrase를 추출한다는 것 자체가 매우 챌린징한 task라 생각합니다. 왜냐하면 모델을 기반으로 예측값을 생성한 후에도 추출된 값이 중요한 값이라는 정보를 dataset이 가지고 있어야 평가가 가능하기 때문입니다. 하지만 해당 분야는 비현실적이지만 현업에서 중요한 분야라 생각합니다. 프로젝트를 진행하며 label이 없는 상황에서 어떻게 중요한 부분을 extraction 할 수 있을지 고민하고 있는데, task에 대한 전반적인 설명을 들으며 앞으로 집중해야할 파트를 정리할 수 있어 유익했습니다. global context와 local context 구하는 방법이 독특했는데, 유사도와 Phrase의 key phrase detect 값을 내적하여 Score로 사용할 경우 성능이 높아진다는것이 신기했습니다. 좋은 발표 감사합니다.
이번 세미나는 Unsupervised Keyphrase Extraction이라는 연구 분야와 Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context라는 논문에 대해 소개해주셨습니다. Label이 존재하지 않는 상황에서 unsupervised한 방법으로 어떻게 keyphrase에 대한 학습과 평가를 어떻게 하는지 궁금했는데, 오늘 세미나를 통해 전반적인 흐름을 알 수 있었습니다. 소개해주신 논문에서는 global한 정보와 local한 정보를 함께 고려할 수 있도록 모델을 구성했는데 해당 수식과 더불어 도식으로 설명해주셔서 복잡함에도 잘 파악할 수 있었습니다. Unsupervised기 때문에 굉장히 어려우면서도 그만큼 실용적인 연구 분야라는 생각이 들었습니다. 좋은 발표 감사드립니다.
이번 세미나에서는 Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context를 다루어 주셨습니다. 해당 논문에서는 특정 비지도학습 방식의 알고리즘을 통해 주어진 문서에서 keyphrase를 찾는 Task에 대한 내용을 소개하고 있습니다. 해당 논문에서 제시하고 있는 방법론에서는 local context와 global context를 이용하는데 local context는 phrase의 centrality를 구하는 것이고, global context는 phrase와 document 임베딩 벡터의 유사도를 비교하는 것입니다. local context에서의 boundary-aware centrality는 문서의 시작과 끝 위치 정보를 비교해줄 수 있는 boundary function을 이용합니다. global context에서의 phrase-document similarity는 다른 후보 phrase 벡터들과의 내적값 합을 centrality로 표현하여 구합니다. 마인드맵과 같은 형식으로 unsupervised keyphrase에 대한 전체적인 설명을 도표로 정리한 점이 인상적이였습니다. 저도 추후에 세미나를 진행하게 된다면 위와 같은 방법을 눈여겨보고 도입해야겠다는 생각이 들었습니다. 좋은 발표 감사합니다!
금일 세미나는 "Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context"라는 주제로 진행되었습니다. 본 발표에서는 임베딩과 그래프를 기반으로 문서 경계의 위치 정보를 반영하여 centrality를 계산함으로써 keyphrase를 추출하는 방법인 boundary-aware centrality가 소개되었습니다. 제안된 방법론은 기존의 centrality 계산 방법들이 후보 phrase의 상대적인 위치를 고려하지 않는다는 점과 일반적으로 keyphrase가 문서의 초반이나 후반 부에 등장한다는 사실을 기반으로 각 phrase의 위치와 boundary의 상대적인 위치 정보를 비교할 수 있는 boundary function을 활용하여 centrality를 계산하였습니다. 기존 모델들의 한계점과 매우 납득 가능한 가정을 기반으로 새로운 centrality 계산 방법을 제안했다는 생각이 들었습니다. 좋은 발표 감사합니다.
금일 세미나에서는 Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context이라는 논문이 다뤄졌습니다. Keyphrase extraction 방법론에는 통계적 기반, graph 기반, topic 기반, embedding 기반 등의 방법론이 있는데, 이번에 소개된 논문에서는 embedding과 graph를 기반으로 하고 있습니다. 특히, local context와 global context의 관점에서 graph centrality와 phrase document similarity를 구해 학습에 활용합니다. 특히, boundary aware centrality를 통해 기존 방식과는 다르게 후보 phrase들의 상대적인 위치를 고려해 문서 구성의 특성을 반영합니다. 세미나에서 boundary의 상대적 중요성을 조절하는 hyperparameter에 대한 논의가 있었는데, 개인적으로는 데이터셋에 따라 기대하는 output을 강제할 수 있는 해석 가능한 파라미터로써 의미가 있다고 생각했습니다. 좋은 발표 감사합니다.
이번 세미나에서 소개해주신 논문은 “Unsupervised Key-phrase Extraction by Jointly Modeling Local and Global Context”로, 이름에서 알 수 있다시피 local과 global context를 활용한 비지도 학습 기반의 key-phrase extraction task와 관련된 논문입니다. Unsupervised Key-phrase Extraction의 종류는 크게 통계(Statistics), 그래프(Graph), 토픽(Topic), 임베딩(Embedding) 기법으로 분류할 수 있습니다. 특히나 이를 한 눈에 알아볼 수 있게 그래프 형식으로 이쁘게 도시화해 주셔서 한눈에 살펴볼 수 있어 좋았던 것 같습니다.
본 논문에서 소개하는 방법론은 임베딩(Embedding) & 그래프(Graph) 기반으로, Global context, Local context 모두 고려하여 score 계산합니다. 이때 Global context는 phrase 와 document 임베딩 벡터의 유사도를, Local context는 phrase 임베딩 벡터 간의 내적 값을 활용하는 interaction을 고려한 centrality를 의미합니다. 뿐만 아니라, Boundary-aware centrality라는 새로운 방식의 centrality를 제안하여 문서 경계에 위치한 phrase의 영향력을 강조하며, 각 phrase의 position별 weight들도 추가적으로 반영하고자 하였습니다. 오랜만의 NLP 논문이라 어려웠지만 차분차분하게 설명해주셔서 좋았습니다. 좋은 발표 감사합니다.
이번 세미나는 EMNLP 2021년에 억셉된 “Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context” 논문으로 진행되었습니다. 해당 논문은 phrase간의 상호작용을 통해 phrase의 centrality를 구하는 local context 정보와 phrase와 document의 임베딩 벡터의 유사도를 비교하는 global context 정보를 둘 다 모델링하는 방법을 제시합니다. 또한 새로운 graph-centrality computation 방법도 제안했는데 기존 전통적인 centrality 계산 방식은 후보 Phrase들의 상대적인 위치를 고려하지 않지만 일반적으로 문서의 주요 내용이 시작이나 끝 부분에서 등장한다는 점에서 착안해 문서의 시작과 끝의 상대적인 위치 정보를 비교할 수 있는 boundary function을 이용한 boundary-aware centrality를 제안했습니다. context를 하나씩 제거해가면 성능을 비교 측정해보는 ablation study가 인상 깊었고, 세미나 중 이뤄진 데이터별 최적의 하이퍼 파라미터 조합이 다양한 것이 어떤 의미를 가질 수 있는지에 대한 토론도 유익했습니다. 특히 발표자분께서 구조화하신 Unsupervised Keyphrase Extraction 마인드맵을 보며 발표자분의 해당 분야에 대한 더욱 더 깊어진 이해가 와닿았던 것 같습니다. 좋은 발표 감사합니다.
이번 세미나는 Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context에 대한 내용으로 진행되었습니다. 해당 연구는 embedding과 graph를 기반으로 하며, keyphrase extraction 시 local, global 정보를 모두 고려하고자 하였습니다. local context는 phrase의 centrality를 계산하는 방법으로 고려되며, global content를 반영하기 위해서는 phrase와 document의 embedding의 유사도를 비교합니다. 특히 boundary의 위치와 각 phrase의 위치를 비교하는 boundary function을 활용하여 keyphrase가 문서 boundary에 존재한다는 bias를 구현하였습니다. 해당 task에 대해 많이 공부하신 것이 느껴져 더욱 집중할 수 있었습니다. 좋은 발표 감사합니다.
이번 세미나는 발표자 분께서 지속적으로 관심을 가지고 연구하고 계신 Keyphrase Extraction 분야의 논문 Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context(EMNLP 21)을 주제로 진행되었습니다. Keyphrase Extraction은 기존 keyword 추출과 다르게 단어가 아닌 문서 내 핵심이 되는 토큰의 span(keyphrase)를 추출하는 task로, 본 논문은 정답이 명확히 주어져 있지 않은 비지도학습 세팅에서 임베딩과 그래프를 기반으로 한 방법론을 제안합니다. 구체적으로 그래프 네트워크의 Centrality(중심성) 개념을 적극 활용하여 문서 경계의 위치정보를 반영하는 계산 방식인 Boundary-aware Centrality를 고안하였습니다. 발표 초반 비지도 기반의 keyphrase extraction 방법론들을 직접 도식화한 자료를 제공해주셔서 이해하는데 큰 도움이 되었습니다. 산학과제를 함께 진행하면서 키워드 추출 관련 task에서 정답 keyword나 keyphrase가 주어져있지 않은 경우, 평가나 방법론을 구체화하는데 상당한 어려움이 있는 것을 몸소 경험하고 있기에, unsupervised keyphrase extraction는 더욱 어려운 task라고 생각합니다. 발표자분께서 열의를 가지고 관련 분야를 탐색하고 계신 것이 인상 깊었으며, 좋은 결과 있기를 기대하겠습니다. 유익한 세미나 진행해주셔서 감사합니다.
본 세미나에서는 embedding과 graph를 기반으로 keyphrase를 추출하는 Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context에 대해 살펴 보았습니다. 해당 연구에서 저자들은 label이 없는 상황을 가정하고 있습니다. label이 없는 상황에서 핵심이 되는 token의 span을 추출하기 위해 graph를 사용하게 되며 그중에서도 local context를 위해 graph centrality를, global context를 위해 phrase document similarity를 사용합니다. 사실 여기가지는 예전부터 여러 분야에서 널리 사용되던 방법으로 새로울 게 없었지만 문서의 특성을 표현하기 위해 후보 phrase들의 상대적인 위치를 고려하는 boundary aware centrality는 재밌었습니다.
금일 세미나는 “Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context” 논문에 대한 리뷰로 진행되었습니다. 세미나에서 다루는 keyphrase extraction 분야는 크게 통계 기반, 그래프 기반, 토픽 기반, 임베딩 기반 방법론으로 나뉠 수 있으며, 소개해주신 방법론은 노드의 중심성을 기준으로 스코어를 계산하는 그래프 기반 방법론과 임베딩 기반 방법론에 속합니다. 논문에서는 local context를 반영하기 위해 phrase 임베딩 간의 내적값으로 centrality를 계산하고, global context를 반영하기 위해 phrase와 document간의 임베딩 유사도를 구합니다. 또한, 문서에서 주요한 내용은 앞과 뒷부분에 등장한다는 사실을 반영하여 새로운 그래프 중심성 계산 방법인 boundary-aware centrality 를 제안합니다. 실험에서는 비슷한 계열의 방법론인 -Rank 계열 모델과의 비교를 통해 local, global context 정보를 반영한 제안 방법론의 성능이 우수함을 확인할 수 있었습니다. 세미나 첫 부분에 여러 keyphrase extraction과 관련된 방법론들을 로드맵 형태로 깔끔하게 정리한 것이 매우 인상적이었습니다. 좋은 발표 감사합니다.
이번 세미나에서는 Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context 에 대한 내용이 소개되었습니다. 본 논문은 Keyphrase Extraction task를 수행하는 임베딩과 그래프 기반 방법론을 제안하고 있습니다. 논문에선 local 과 global context를 구분하여 사용하고 있으며 local context는 phrase centrality 를, global context는 phrase와 document의 임베딩 유사도를 통해 계산됩니다. 계산된 context는 논문에서 제안하는 Boundary-Aware Centrality 계산에 사용되고 이는 문서의 경계에 위치한 phrase의 영향력을 강조할 수 있게 됩니다. 이번 세미나에선 Keyphrase Extraction 관련 연구들에 대해 statistics, graph, topic, embedding 기반 방법론을 기준으로 정리한 점과 제안 방법에 대해 발표자분의 의견을 들을 수 있었던 점이 특히 유익했던 것 같습니다. 좋은 세미나 발표 감사합니다.
금일 세미나는 Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context 연구에 대해 진행되었습니다. 사실 자연어 처리 관련 연구를 진행하고 있지 않아, 최근의 흐름을 수월히 파악하기는 어려웠는 데, keyphrase 추출이라는 task를 잘 이해할 수 있게 되었던 시간이었습니다. Keyphrase는 그 중요도를 2가지 기준으로 확인합니다. 본 연구는 그 2가지 기준인 Informativeness, Coherence를 unsupervised 방식을 통해 진행하고자 합니다. 결국 핵심은 global, local context를 반영해 설정하는 Rank algorithm인 듯 합니다. Global context는 문서와 keyphrase 벡터 간 distance를 활용해 similarity를 구하는 간단한 방법을 활용합니다. 눈에 띄는 것은 local context 파악을 위한 centrality 계산 이었습니다. 기존의 centrality 측정 방식과 다르게 상대적인 위치를 고려하도록 고안한 것이 인상적이었습니다. 이러한 과정이 기본적으로 graph에 기반해 진행된다는 것도 인상적이었습니다. Local context와 global context 파악에 알고리즘 기반의 접근을 통해 좋은 성능을 보였습니다. 개인적으론 발표자분의 의견처럼 과제 해결에 중요한 요소들을 잘 포착해 간단하면서도 정확한 알고리즘을 활용한 것이 인상깊었던 연구였습니다. 좋은 발표 해주신 발표자 분께 감사의 말씀을 드립니다.
이번 세미나에서는 Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context 논문을 소개 주셨습니다. 이번 발표 역시 발표자께서 지난번부터 소개해 주신 Keyphrase Extraction Task에 대한 것으로, 이번 논문에서는 Graph-based 비지도 학습을 사용하는 방법론을 제안했습니다. 특징으론 Global과 Local context를 모두 고려하여 score를 계산하는 것이며, 특히 문서 경계의 Phrase를 더욱 중요하게 판단하는 Boundary-aware centrality를 제안하고 사용한 것입니다. 발표 중에도 이야기가 나왔지만 Unsupervised Keyphrase Extraction 모델들의 관계를 표현한 그림을 만들어 소개해 주시는 등 전반적인 분야의 연구동향을 알 수 있어 좋았습니다. 또한 이번학기 정규 수업에서 PGM을 배웠으나 다양한 분야에서 어떻게 사용되고 있는지에 대해 의문이 있었는데 본 발표를 통해 감을 잡을 수 있었습니다. 좋은 발표 감사합니다.
이번 세미나는 “Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context”라는 논문에 대해서 소개해주셨습니다. Key phrase 추출은 저번 세미나에서도 한번 소개해주셨던 것 같은데, 이번에는 그래프에 기반한 key phrase extraction 방법론에 대해 자세히 소개해주셨습니다. 그래프는 언제나 어려운 것 같습니다만, 우선 소개해주신 논문의 방법론은 phrase들 간의 관계를 나타내는 것(local), 그리고 phrase와 전체의 관계를 나타내는 것(global)의 두 방식으로 표현하게 됩니다. 해당 방식으로 표현하여 score를 계산하게 되며, 문서 경계의 phrase를 더욱 중요하게 나타내는 boundary aware centrality를 사용하게 됩니다. 기존과 다르게 상대성을 반영하는 방식이며, 언뜻 보기에 간단한 방법론을 고안한 좋은 논문이라는 생각이 들었습니다. key phrase extraction 자체는 굉장히 생소한 분야이나, 동향에 관해서도 자세히 설명해주셔서 잘 이해할 수 있었습니다. 좋은 발표 감사합니다.
이번 세미나는 "Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context" 논문에 대해 소개해주셨습니다. Key phrase extraction을 supervised 기반이 아닌 unsupervised 관점으로 접근한 방법을 제안하였습니다. 세미나에서는 다양한 비지도 학습 방법에 대해 한 장의 표로 정리한 모습이 인상깊었습니다. 논문에서 제안한 그래프 기반 방법은 local context와 global context 두가지 관점으로 모델을 구성하였습니다. Local context는 phrase의 centrality를 통해 계산되고 global context는 phrase와 document의 embedding vector를 통해 계산됩니다. 본 논문에서 제안한 rank algorithm은 boundary-aware centrality로 local context 계산 시 기존 방법과는 다르게 centrality를 상대적 중요성이 반영되도록 계산됩니다. 또한 global context는 BERT를 사용하여 계산합니다. 마지막으로 이 둘을 활용하여 key phrase를 추출하게 됩니다. 처음엔 key phrase extraction이라는 주제가 익숙하지 않았지만 같은 주제로 다양한 관점에서 설명해주신 덕분에 조금씩 이해가 되고있습니다. 좋은 발표 감사합니다.
이번 세미나는 keyphrase extraction을 주제로 진행되었습니다. 본 세미나에서는 embedding과 graph를 기반으로 하는 keyphrase extraction 방법론에 대해서 설명하고 있습니다. Graph context, Local context 두가지를 모두 고려하여 score를 계산합니다. local context는 phrase간의 상호작용을 통해 phrase의 centrality를 구하고, global context는 phrase와 document의 임베딩 벡터의 유사도를 비교하였습니다. 기존의 centrality 계산 방식이 후보 phrase들의 상대적인 위치를 고려하지 않는다는 한계점이 있었고, 일반적으로 문서 내에서 중요 내용은 문서의 초반이나 후반부에 등장한다는 점을 언급하며 문서의 시작과 끝인 boundary에서의 상대적 중요성을 조절하는 boundary-aware centrality를 제안하였습니다. 새로운 연구 분야에 대해서 들을 수 있어서 좋았습니다. 좋은 발표 감사합니다.
이번 세미나는 Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context 논문의 내용으로 진행되었습니다. 본 논문은 embedding과 graph를 기반으로 하는 keyphrase extraction 방법론에 대한 내용을 다루고 있으며, Global context, local context 를 모두 고려하여 score 를 계산합니다. global context 는 phrase 와 document 임베딩 벡터의 유사도를 뜻하고, local context 는 phrase 임베딩 벡터간의 내적값을 활용하는 centrality 를 의미 합니다. 여기서 새로운 방식의 centrality 를 제안하는데, 문서 구성에서 경계에 위치한 문장의 phrase 의 영향력이 더 커야함을 반영합니다. 이는 일반적으로 문단에서 주제나 핵심이 첫문장, 혹은 끝 문장에 있는 것을 반영한 것이 아닌가 생각합니다. 사실 이런 부분도 알아서 잘 해야하는 것이 좋은 모델 아니냐 와 사전지식을 잘활용하냐는 관점 차이이지만, 개인적으로는 본 논문과 같은 후자의 접근이 실제로 데이터 사이언스 관점에서 더 적합하다고 생각합니다. extraction 모델들이 그래프 관련 방법론들이 많이 적용되는 것으로 알고 있는데, 관련 아이디어들을 잘 정리하여, 좋은 연구 결과 있길 바랍니다. 감사합니다.
금일 세미나는 특정 문서에서 Keypharase를 추출하나 레이블과 쌍으로 존재하는 데이터 셋을 구축하기 어려운 현실에 맞춰, Unsupervised 방식으로 핵심 구를 추출하는 Unsupervised Keyword Extraction에 대한 발표였습니다. 보통 해당 접근은 임베딩을 기반으로 구의 임베딩과 문서 전체의 임베딩을 비교하는 방식을 사용하지만 이는 문맥을 반영하는 의의를 달성하기에 부족합니다. 따라서 본 논문에서는 Local과 Global 문맥을 모두 고려하는 방식을 제안하며 Global 관점에서는 기존 접근과 같이 특정 구와 Global 임베딩의 유사도를 계산합니다. Local의 경우 Graph를 기반으로 각 구를 노드로, 구 간의 유사도를 엣지로 간주하며 그래프 기반 Centrality 계산을 수행하고 Ranking을 통해 어떤 구가 가장 주요한 의미를 갖는지 파악합니다. 하지만 해당 논문에서 일반적으로 문서 내에서 주요 내용이 문서의 초반이나 후반 부에 등장하는 것은 사실 휴리스틱한 근거라고 생각되어 분석에 기반한 근거가 제시되면 좋을 것 같습니다. 마지막으로 발표에 많은 노력을 하여 내용은 풍부하나 그림을 통한 설명이 첨가된다면 매우 좋은 발표가 될 것 같습니다. 감사합니다.