[Paper Review] Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering

Paper Review
작성자
Gunho No
작성일
2022-09-07 23:21
조회
2483
1. Topic

Knowledge Base Question Answering(KBQA) Task에 대한 전반적인 소개와

Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering 논문에서 제안하는 Subgraph Retrieval Enhanced Model 소개

2. overview
  • Reasoner와 분리된 trainable SR를 개발하여, 모든 subgraph-oriented reasoner에 바로 적용할 수 있는 성능강화 framework를 제안하였다.
  • 간단히 RoBERTa dual-encoder를 적용하는 것으로 기존의 retrieval methods 보다 훨씬 작은 크기의 subgraph로 높은 성능을 달성하는 Subgraph Retriever를 제안하였다.
  • 기존의 SOTA 모델인NSM에 SR을 적용하여 weakly supervised pre-training과 end-to-end fine-tuning 하는 것으로 Embedding-based KBQA methods에서 새로운 SOTA 성능을 달성하였다.
3. 발표자료 및 발표영상
  • 발표자료: 하단 첨부
  • 발표영상: ">[Link]
4. 참고문헌
  • Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering (Zhang et al., ACL 2022)[Link]
  • A Survey on Complex Knowledge Base Question Answering: Methods, Challenges and Solutions (Lan et al., JCAI2021)[Link]
  • Distant Supervision for Relation Extraction with an Incomplete Knowledge Base (Min et al., NAACL 2013)[Link]
  • Improving Question Answering over Incomplete KBs with Knowledge-Aware Reader (Xiong et al., ACL 2019)[Link]
  • Open Domain Question Answering Using Early Fusion of Knowledge Bases and Text (Sun et al., EMNLP 2018)[Link]
  • PullNet: Open Domain Question Answering with Iterative Retrieval on Knowledge Bases and Text (Sun et al., EMNLP 2019)[Link]
  • NSM: Improving Multi-hop Knowledge Base Question Answering by Learning Intermediate Supervision Signals (He et al., WSDM 2021)[Link]
전체 19

  • 2022-09-10 16:10

    금일 세미나에서는 2022 ACL에 게재된 Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering에 대해 살펴보았습니다. 개인적으로 처음 접하는 분야의 연구였는데, 발표자께서 knowledge base question answering에 대한 전반적인 소개를 해주셔서 이해가 편했습니다. Knowledge base question answering 분야에서는 subgraph를 어떤식으로 구성하고 학습하는지가 매우 중요하다고 이해했습니다. 본 연구는 필요한 사이즈의 subgraph만을 구성하여 메모리 효율성과 정확도를 높이고 선행 연구에서 문제가 됐던 subgraph의 bias를 줄이는 것을 목표로 합니다. pullnet과 유사하지만 보다 안정적인 방식으로 학습이 진행되는데 GANs이 발전한 방향과 유사한 것 같습니다.


  • 2022-09-11 19:20

    이번 세미나에서는 Knowledge Base Question Answering에 관련된 연구를 소개해주셨습니다.해당 분야에 대해 낯설었지만 QA 태스크에 대한 설명을 잘 해주셔서 이해할 수 있었습니다. 게다가 Knowledge base 뿐만 아니라 Semantic Parsing 비교 설명 덕분에 Knowledge base가 어떤 이점이 있는지, 어떤 문제를 해결해야 하는지 명확하게 알 수 있었습니다. Knowledge Base는 대량의 데이터를 기반으로 하기에 높은 컴퓨팅 코스트를 요구하며, 이 때문에 적절한 크기의 subgraph를 사용하는 것이 중요했습니다. 또한 데이터셋에 질문과 답만 있기 때문에 중간 과정을 알기 어려웠습니다. 해당 논문에서는 이를 해결하기 위해 리즈너로 부터 완전히 분리 된 Retrieval로 bias가 발생하지 않은 subgraph를 산출해 plug&play 형태로 다른 리즈너가 바로 사용할 수 있도록 했습니다. 또한 Weak intermediate supervision을 해결하기 위해 Question의 topic entity로 부터 일련의 relation을 통해 path를 결정하도록 했습니다.


  • 2022-09-13 14:00

    이번 세미나에서는 Knowledge Base Question Answering 분야의 최신 논문을 다루었습니다. 생소한 분야의 연구라서 어떤 내용인지 이해하는 게 쉽지는 않았지만 question에서 answer로 가는 path들을 subgraph 형태로 생성하고 그 중에서 가장 reasonable한 path를 찾는 방법을 훈련하는 내용이라고 이해했습니다. 본 논문의 모델의 핵심 목표 중 하나는 필요한 만큼의 subgraph만을 생성하여 computational cost를 줄이고 성능을 향상시키는 것이었습니다. 이 과정에서 베이지안 확률 이론을 적용하여 확률적으로 reasoner를 최적화하는 방법을 고안했다는 것이 인상적이었습니다. 또한 방법 자체만 봤을 때는 간단한 방법인 것 같았는데 이를 통해 subgraph의 수를 이전 모델에 비해 엄청나게 줄이고 성능을 향상시킨 것이 인상적이었습니다.
    추가적으로 어려운 내용들을 쉬운 예시로 설명해주셔서 이해하는데에 큰 도움이 되었습니다. 좋은 발표 감사합니다!


  • 2022-09-16 22:04

    해당 세미나에서는 Knowledge Base를 활용한 Open-Domain QA 분야의 연구를 소개해 주셨습니다. 처음 접해보는 분야이지만, 다양한 예시를 들어주어서 손쉽게 이해할 수 있었습니다. 이 논문의 핵심은 Reasoner로부터 분리된 Retriever를 만드는 것이며, 이 과정을 수학적으로 분리가 가능함을 보여주고 있습니다. 이때, Reasoner와 Retriever를 분리함으로써 Reasoner로부터의 피드백을 Retriever가 subgraph 내 path 확장에 사용합니다. 이러한 과정을 반복하는데, Reasoner와 Retriever를 jointly하게 학습하나 병렬적인 구조로 학습하여 하나의 epoch에는 하나의 완성된 Subgraph만 Reasoner가 작동하는 구조로 End-to-End Fine training을 진행하여 SOTA 성능을 달성하였습니다. Reasoner와 Retriever를 분리하는 과정을 수학적으로 증명함으로써 이러한 모델 구조를 만들 수 있었고, 이를 통해 기존 모델들의 문제점을 해결할 수 있었기에 수학적인 증명이 이 논문의 핵심이라는 생각이 들었습니다. 전혀 생각지도 못한 접근법이라는 생각이 들었고, 어떤 문제가 있을 때 다양한 방면으로 문제에 접근할 수 있어야 한다는 생각이 들었습니다. 어려운 내용들이지만 하나하나 예시를 들어 주어서 쉽게 이해할 수 있었습니다. 좋은 발표 정말 감사드립니다.


  • 2022-09-16 23:45

    이번 세미나는 Graph retrieval 기반의 QA 모델을 소개해 주셨습니다. 여기서 말하는 graph는 Knowledge base 기반의 knowledge graph를 의미하며 QA를 수행하기 위해 적절한 정보를 graph retrieval을 통해 도출합니다. 하지만 KG의 크기가 매우 크기 때문에 subgraph를 추출하여 retrieval을 진행하는것이 해당 Task의 가장 중요한 부분입니다. 발표자분께서 GRAFT-Net과 PULLNet을 통해 related work를 설명을 해주신 다음에 최신 논문을 소개해주셔서 이해하기 훨씬 수월했습니다. ODQA에서 passage의 개수가 일정 수준 이상 늘어날 경우 QA 성능이 하락되던것과 동일하게 KBQA에서도 적절한 크기의 subgraph를 구성하는것이 중요했습니다. 해당 논문은 question의 Topic entity가 주어져 있을 때 일정한 수준 이상의 유사도를 가지는 relation들을 선별하여 graph를 확장했습니다. 하나의 질문에 대해 여러개의 Topic entity가 존재할 경우엔 앞선 과정을 통해 형성된 tree를 entity를 기준으로 merge하여 하나의 Subgraph를 얻었습니다. end-to-end로 retiever와 reasoner가 함께 학습되는 구조를 가졌기 때문에 retriever가 Reasoner에의해 최적화 될 수 있다는 장점이 존재합니다. 첫 세미나임에도 불구하고 어려운 논문들을 잘 정리해서 발표해주어 이해하기 쉬웠습니다. 좋은 연구로 이어지길 기대합니다 !


  • 2022-12-13 23:18

    금일 세미나는 "Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering"라는 주제로 진행되었습니다. 본 발표에서는 reasoner와 분리된 trainable subgraph retrieval을 개발하여 모든 subgraph-oriented reasoner에 바로 적용할 수 있는 구조가 소개되었습니다. 해당 모델은 필요한 만큼만 subgraph를 산출하고, reasoner로부터 decupled 된 retriever로 weak intermediate supervision의 bias가 발생하지 않는 subgraph를 산출하여 plug & play 형태로 다른 reasoner가 바로 사용할 수 있도록 하자는 목표를 세우고 이에 적합한 아이디어를 통해 모델을 제안하였습니다. 개인적으로 기존의 retrieval methods 보다 훨씬 작은 크기의 subgraph를 도출하기 위해 RoBERTa dual-encoder를 적용하는 간단한 아이디어를 활용한 점이 인상 깊었습니다. 좋은 발표 감사합니다.


  • 2022-09-18 01:40

    Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering라는 제목의 논문 발표가 있었습니다. 먼저 논문 소개에 앞서 Knowledge Base Question Answering 에 대한 선행 접근 방법의 갈래를 소개해주셨습니다. 이 중에서 본 논문은 subgraph를 활용해 QA를 수행하는 방법론을 제안하며, beam search를 기반으로 적절한 크기의 subgraph를 추출하는 방식과 reasoner로부터의 feedback을 retriever의 path expansion에 활용하는 방향으로 weak intermediate supervision의 bias를 방지할 수 있는 방법론을 제안합니다. 자연어 분야는 특히나 어떠한 가정 기반 보다는 아이디어의 합당한 논리가 모델링에 보다 직관적으로 표현이 되는 경우가 많은데, 이번에도 이와 같은 흥미로운 논문을 접할 수 있어 유익했습니다. 무엇보다 발표자료 정리가 잘 되어 있어 이해에 도움이 됐습니다. 좋은 발표 감사합니다.


  • 2022-09-18 13:48

    본 세미나에서는 Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering란 주제의 논문에 대해서 리뷰하였습니다. 그래프를 기반으로 retrieval을 진행하는 방법에 대한 방법론을 제안하는 논문이었습니다. 해당 방법론의 핵심 task는 적절한 subgraph를 어떻게 추출하는 부분이라고 판단되었습니다. 적절한 subgraph의 추출을 위해 RoBERTa에 dual-encoder를 적용하였고, 기존의 retrieval methods 대비 훨씬 작은 크기의 subgraph로 높은 성능을 달성한 부분이 인상적이었습니다. 또한 기존의 SOTA model인 NSM에 SR을 적용하였고, weakly supervised pre-training과 end-to-end fine-tuning을 통해 Embedding-based KBQA methods에서 새로운 SOTA 성능을 달성하였습니다. 최근 연구실 세미나, 스터디를 통해 retrieval에 관한 논문에 대한 리뷰가 많았는데, 그래프를 이용해 retrieval을 하는 논문은 처음 접해보아서 흥미로웠습니다. 처음 접한 내용이었지만 꼼꼼하게 발표를 진행을 해주셔서 내용에 대한 이해가 수월했습니다. 첫 세미나부터 좋은 발표 준비해주셔서 감사합니다.


  • 2022-09-18 21:36

    이번 세미나에서는 Knowledge Base를 활용한 QA task 관련 논문인 "Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering"에 대해 소개해주셨습니다. QA task와 관련하여 질의에 적합한 정보를 추출하기 위해 knowledge graph로 부터 graph retrieval을 진행하는 것은 매우 적합한 방식이라고 생각하였는데 이번 세미나를 통해 어떤 문제가 있고 최신 연구들이 어떻게 그런 문제들을 해결하고 있는지 알 수 있었습니다. 결국 매우 큰 구조의 graph로부터 적합한 subgraph를 추출하는 것이 중요하다는 것을 알았습니다. 소개해주신 논문에서는 이를 위하여 적절한 크기의 subgraph를 추출하는 방법론을 제안하여 정확도와 메모리 효율성을 증가시켰습니다. 연구하는 입장에서 이런 모호한 부분들을 해결하는 로직이 항상 문제가 되는 경우가 많은데 이번 논문에서 이를 해결한 방식에서 배울점이 많다고 생각하였습니다. 좋은 발표 감사드립니다.


  • 2022-09-19 09:41

    이번 세미나는 Knowledge Base와 Knowledge Graph를 이용하여 Question Answering을 수행하는 연구를 주제로 진행되었습니다. 소개해주신 논문은 Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering 입니다. Knowledge Base란 위키피디아 같은 텍스트로 부터 (subject, relation, object)의 형태로 정보를 추출하여 저장한 것을 의미하고 이를 바탕으로 그래프를 만들면 Knowledge graph가 되는 것입니다. 이러한 Knowledge Base와 Knowledge Graph를 통해 QA를 수행하는 것을 KBQA라고 지칭합니다. KBQA에 Semantic Parsing과 Information Retrieval의 두 가지 접근 방식이 존재하는데 발표자 분께서 말씀하신 것 처럼 후자의 방식이 모델링 관점에서 효율적이기 때문에 연구가 발전 되어가는 것이 아닐까 싶습니다. KBQA 연구 분야를 처음 접하게 되었는데 그래프(네트워크)가 지닌 표현력과 설명력을 십분 발휘할 수 있다는 점이 인상깊었습니다. 결국 그래프를 이용한다는 것의 핵심이라고 생각되는 부분은 어떤 정보들로 어떻게 그래프를 구성할 것인지에 대한 아이디어가 아닐까 싶습니다. 발표자 분께서 이해하기 쉽게 단계별로 자세히 설명해주신 덕분에 최근의 세미나 중 재밌게 들을 수 있었습니다.


  • 2022-09-19 12:48

    해당 세미나에서는 Knowledge Graph를 활용한 Qustion Answering 방법론을 다룬 Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering 논문을 소개해주셨습니다. 해당 연구와 선행 연구와의 관계에서 GRAFT-Net과 PullNet에 대해 설명해주셨는데, 발표자 분의 설명을 통해 KGQA에서는 Retriever에서 필요한 만큼의 Subgraph만 확장 혹은 추출하여 Computational Cost를 줄이는 것이 중요함을 알 수 있었습니다. 발표 초반에는 개인적으로 Subgraph가 커지면 비록 Computational Cost가 커지더라도 QA 성능은 계속해서 상승할 것이라 생각했습니다. 그러나 해당 연구에서의 실험 결과, Subgraph의 크기가 5K -> 10K로 증가할 때 오히려 QA 성능(Hits@1)이 하락했습니다. 이번 세미나를 통해 Information Retrieval에서 Graph를 이용한 Retriever을 수행할 수 있다는 점과 Subgraph가 커지면 QA 성능이 계속 상승할 것이라는 제 추측이 틀렸음을 통해 연구를 위해서는 역시 다양한 Experiment를 해보고, 이론적 증명을 해야함을 느꼈습니다. 좋은 발표 감사드립니다.


  • 2022-09-19 15:24

    이번 세미나에선 Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering 이라는 연구에 대해 소개되었습니다. 논문의 제안 방법론은 논문 제목에 드러난 것처럼 knowledge based question answering 의 성능을 높일 수 있는 subgraph retrieval 방식입니다. 논문에선 roberta의 dual encoder를 사용하여 기존보다 작은 크기의 subgraph를 사용하면서도 KBQA의 기존 SOTA 모델인 NSM에 subgraph retrieval 을 적용하여 성능도 개선할 수 있었다고 합니다. 성능과 모델 크기 면에서 모두 이전보다 나은 성능을 보였다는 점이 인상적이었고 발표자분의 첫 세미나라는 점이 무색할 정도로 연구에 대한 배경과 관련 연구들이 잘 정리되었다는 느낌을 받았습니다. 좋은 세미나 발표 감사합니다.


  • 2022-09-19 20:13

    이번 세미나는 “Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering” 이었습니다. KB를 이용한 태스크들은 그래프를 기반으로 하기 때문에 얼마나 효율적으로 sub-graph를 retrieval 할 수 있는지가 중요합니다. 해당 논문은 Reasoner의 피드벡을 이용하여 Retriever가 사용할 sub-graph를 추출하게 됩니다. 특히 이때 path가 급격히 커지면서 비슷한 relation들이 다수 포착되고 이로인해 연산량이 급격히 늘어날 수 밖에 없습니다. 해당 논문에서는 이를 query의 entity에 대해 유사한 relation끼리 merge하는 알고리즘을 도입하여 효과적으로 sub-graph의 크기를 줄이고 있었습니다. KBQA의 경우 그래프 관련 지식과 이를 QA에 이용하는 Reasoner와 관련된 배경지식이 많이 필요하여 이해하기 어려웠는데 발표자분께서 전반적인 내용을 정리하여 다뤄주셔서 비교적 수월하게 이해할 수 있었던 것 같습니다. 감사합니다.


  • 2022-09-20 14:31

    이번 세미나는 ‘Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering’를 주제로 진행되었습니다. 본 논문 설명에 앞서 knowledge base, knowledge graph에 대해서 설명해주시고 knowledge base question answering에 대한 설명과 장점, 기존 방법론들에 대해 설명해주셨습니다. Knowledge base question answering은 semantic parsing based와 information retrieval based로 크게 두가지 접근법을 가지고 있습니다. 본 논문의 방법론은 end-to-end로 answer reasoner와 subgraph retriever이 함께 학습되도록 구성되어 있으며, question의 topic entity의 relation을 통해 subgraph를 생성 및 추출하였습니다. 정답을 Knowledge base question answering에 대해서 처음 접하였는데 background부터 차근차근 잘 설명해주셔서 이해하기 수월하였습니다. 좋은 발표 감사합니다.


  • 2022-09-20 18:05

    금일 세미나는 “Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering” 연구에 대해 진행되었습니다. 오늘 연구는 open domain의 QA연구에 대해 진행되었습니다. 그 중에서도 knowledge based 방법론입니다. 사실 QA를 knowledge graph와 함께 진행하는 경우에 대해 자세히 알 지 못했었는 데, 오늘 세미나를 통해 알 수 있어 좋았습니다. graph의 경우도 heterogeneous graph에 대한 개념과 활용되는 과정을 자세히 설명해주셔서 이해에 도움이 되었습니다. 연구의 목적처럼 가장 목적적합한 sub-graph를 찾아가는 과정이 가장 중요한 것 같습니다. Roberta에서 dual-encoder를 활용해 기존보다 높은 성능을 찾아가는 과정이 인상적이었습니다. 사실 오늘 발표해주신 분야에 대해 깊이있게 잘 알지 못했었는 데, 발표에서 자세하게 잘 설명해주셔서 이해도를 높일 수 있었습니다. 좋은 발표 잘 들었습니다. 감사합니다.


  • 2022-09-20 21:04

    금일 세미나는 Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering 논문에 대해 소개해 주셨습니다. 해당 논문은 knowledge graph를 활용하여 QA task를 수행하는 방법으로 모든 knowledge graph를 사용하는 것이 아닌 subgraph를 확장해나아가며 최소한의 graph만으로 높은 성능을 낼 수 있는 방법에 대해 제안하였습니다. Subgraph를 구성하는 방법은 background로 소개해주신 GRAFT-Net, PullNet, 그리고 NSM이 있지만 본 논문에서 제안한 방법인 Subgraph Retriever (SR)은 정답을 추론하는 reasoner와 분리되어 구성되기 때문에 학습 중 아직 subgrap에 정답이 없는 상황에서 정답을 추론하도록 하는 intermediate supervision의 bias를 방지할 수 있다는 장점이 있습니다. SR에서 subgraph를 확장해나아가는 방법을 수리적으로 풀어나가고 이를 bayesian 관점에서 방법을 구성한 것이 인상깊었습니다. 좋은 발표 감사합니다.


  • 2022-09-20 23:26

    이번 세미나는 올해 ACL에 accept된 논문 Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering을 주제로 진행되었습니다. 그간 Open Domain QA는 스터디 등을 통해 여러번 접할 수 있었지만, Knowledge Base Question Answering(KDQA)는 이번 세미나를 통해 처음 알게 된 연구 분야입니다. knowledge 자체를 어떻게 정의하고 있을지 굉장히 궁금했는데, 발표자분께서 발표 초반 knowledge base와 knowledge graph에 대해 예시를 통해 명확히 설명해주셔서 이해에 큰 도움이 되었습니다. 사실 정형화된 데이터를 처리하는 지식 기반 방법론의 효용성과 확장성에 대해 의문이 있었는데, heterogeneous graph, entity link와 같이 다수의 정보를 결합하는 방식과 시간에 따라 변화하는 정보를 수정할 수 있다는 측면에서 강점을 가진다는 점이 인상 깊었습니다. 금일 소개해주신 논문에서는 retriever와 reasoner가 분리되어 있는 subgraph retriever의 새로운 프레임워크를 제안합니다. RoBERTa dual encoder를 통해 기존 retrieval 방식에 비해 작은 사이즈를 유지하면서 성능을 높였다는 측면에서 contribution이 있습니다. 또한, weakly supervised pre-training과 end-to-end finetuning을 통해 임베딩 기반의 KBQA 방법론에서 SOTA를 기록하였습니다. 새로운 개념이 많아 이해하기 쉽지 않았지만, 발표자분의 친절한 설명 덕분에 흐름은 따라갈 수 있었습니다. 유익한 세미나 진행해주셔서 감사합니다.


  • 2022-09-20 23:56

    이번 세미나는 Multi-hop Knowledge Base Question Answering 분야에서 Graph를 통해 문제를 해결한 Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering 논문으로 진행되었습니다. 해당 방법론은 KBQA 분야에서 많이 사용되는 2가지 접근법 중 질문과 관련된 Sub Knowledge Graph를 반환한 후, 반환된 그래프 내에서 정답이 될 수 있는 entity를 탐색하는 information retrieval-based 접근법입니다. 이러한 접근법에선 적절한 크기의 Sub graph를 찾는 것과 weak intermediate supervision bias를 해결하는게 큰 챌린지인데, 해당 논문에선 질문의 topic entity로부터 entity 간 relation을 기반으로 top-k beam search를 통해 entity를 확장해나가는 방식으로 첫 번째 챌린지를 보완했고, end-to-end로 학습을 진행하며 reasoner로부터의 feedback을 retriever의 path expansion에 활용하는 방식으로 두 번째 챌린지를 보완했습니다. 제가 다룬 TableQA와 Background 부분에서 겹치는 챌린지들이 많아 흥미로웠고, 특히 KBQA 분야의 논문이 연구실에서 처음 소개된만큼 Knowledge Base에 대한 개념과 KBQA를 다루는 기존 2가지 흐름의 접근법들을 소개해주셔서 전반적인 흐름을 이해하기 좋았던 발표였던 것 같습니다. 좋은 발표 감사합니다!


  • 2022-09-20 23:59

    이번 세미나에서는 Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering을 다루어 주셨습니다. Knowledge Base Question Answering란 knowledge base를 이용하여 open-domain에 대해 question answering을 수행하는 것입니다. KBQA 에서 retrieval에 기반한 모델들은 크게 retriever 부분과 reasoner 부분으로 구성되고 있음을 확인할 수 있습니다. 해당 논문에서는 reasoner로부터 decouple된 학습가능한 subgraph retriever(SR)을 제안하고 있습니다. 해당 방법론에서는 질문이 주어지면 반복적으로 relation을 확장하고, retriever와 reasoner를 pre-train시키게 됩니다. 학습에 있어서는 weakly supervised pre-training된 retriever와 이에 맞추어 학습된 reasoner를 다시 end-to-end fine-tuning하여 성능을 향상시키고 있습니다. 이때 기존의 retrieval 방법론들과 비교시 훨씬 작은 크기를 갖는 subgraph로 높은 성능을 달성하는 Subgraph Retriever를 제안하였다는 점에서 의의가 있습니다. 연구실 세미나에서 처음으로 다루어지는 분야인데 background를 상세히 짚고 넘어가 주셔서 해당 분야에 입문하는 사람들도 참고하면 좋을 것 같다는 생각이 들었습니다. 예시들도 눈에 잘 들어오게끔 말씀하셔서 이해에 많은 도움이 되었습니다. 첫번째 세미나 발표 수고하셨습니다! 좋은 발표 감사합니다!


전체 506
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 10567
관리자 2020.03.12 0 10567
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 9162
관리자 2020.03.12 0 9162
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 10274
관리자 2020.03.12 0 10274
503
New [Paper Review] Restructuring Vector Quantization with the Rotation Trick
Woojun Lee | 2025.05.20 | 추천 0 | 조회 14
Woojun Lee 2025.05.20 0 14
502
[Paper Review] Battling the Non-stationarity in Time Series Forecasting via Test-time Adaptation (3)
Jinwoo Park | 2025.05.16 | 추천 0 | 조회 61
Jinwoo Park 2025.05.16 0 61
501
[Paper Review] SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning (4)
Hun Im | 2025.05.15 | 추천 0 | 조회 65
Hun Im 2025.05.15 0 65
500
[Paper Review] AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP (12)
Junyeong Son | 2025.05.08 | 추천 0 | 조회 164
Junyeong Son 2025.05.08 0 164
499
[Paper Review]SLMREC: Distilling Large Language Models Into Small For Sequential Recommendation (15)
Doyoon Kim | 2025.05.01 | 추천 0 | 조회 170
Doyoon Kim 2025.05.01 0 170
498
[Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables (18)
Sunghun Lim | 2025.04.24 | 추천 0 | 조회 316
Sunghun Lim 2025.04.24 0 316
497
[Paper Review] Imputation-based Time-Series Anomaly Detection with Conditional Weight-Incremental Diffusion Models (17)
Suyeon Shin | 2025.04.21 | 추천 0 | 조회 212
Suyeon Shin 2025.04.21 0 212
496
[Paper Review] Revisiting Multimodal Fusion for 3D Anomaly Detection from an Architectural Perspective (15)
Woongchan Nam | 2025.04.16 | 추천 0 | 조회 222
Woongchan Nam 2025.04.16 0 222
495
[Paper Review] Your Large Vision-Language Model Only Needs A Few Attention Heads For Visual Grounding (17)
Kiyoon Jeong | 2025.04.16 | 추천 0 | 조회 456
Kiyoon Jeong 2025.04.16 0 456
494
[Paper Review] Reasoning over Time Series with LLMs (16)
Hyeongwon Kang | 2025.04.09 | 추천 0 | 조회 475
Hyeongwon Kang 2025.04.09 0 475

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 허재혁 : jaehyuk.heo@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호