번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 10294
|
관리자 | 2020.03.12 | 0 | 10294 |
공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 8909
|
관리자 | 2020.03.12 | 0 | 8909 |
공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 10019
|
관리자 | 2020.03.12 | 0 | 10019 |
498 |
[Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables (1)
Sunghun Lim
|
2025.04.24
|
추천 0
|
조회 29
|
Sunghun Lim | 2025.04.24 | 0 | 29 |
497 |
[Paper Review] Imputation-based Time-Series Anomaly Detection with Conditional Weight-Incremental Diffusion Models (3)
Suyeon Shin
|
2025.04.21
|
추천 0
|
조회 48
|
Suyeon Shin | 2025.04.21 | 0 | 48 |
496 |
[Paper Review] Revisiting Multimodal Fusion for 3D Anomaly Detection from an Architectural Perspective (7)
Woongchan Nam
|
2025.04.16
|
추천 0
|
조회 114
|
Woongchan Nam | 2025.04.16 | 0 | 114 |
495 |
[Paper Review] Your Large Vision-Language Model Only Needs A Few Attention Heads For Visual Grounding (9)
Kiyoon Jeong
|
2025.04.16
|
추천 0
|
조회 205
|
Kiyoon Jeong | 2025.04.16 | 0 | 205 |
494 |
[Paper Review] Reasoning over Time Series with LLMs (13)
Hyeongwon Kang
|
2025.04.09
|
추천 0
|
조회 284
|
Hyeongwon Kang | 2025.04.09 | 0 | 284 |
493 |
[Paper Review] Accurate predictions on small data with a tabular foundation model (16)
Jaehyuk Heo
|
2025.04.02
|
추천 0
|
조회 278
|
Jaehyuk Heo | 2025.04.02 | 0 | 278 |
492 |
[Paper Review] Reasoning and Reinforcement Learning for LLM (15)
Jaehee Kim
|
2025.04.02
|
추천 0
|
조회 273
|
Jaehee Kim | 2025.04.02 | 0 | 273 |
491 |
[Paper Review] LLM based Recommender Systems : EAGER-LLM (19)
Jungho Lee
|
2025.04.02
|
추천 0
|
조회 252
|
Jungho Lee | 2025.04.02 | 0 | 252 |
490 |
[Paper Review] Data-driven discovery of coordinates and governing equations (18)
Hankyeol Kim
|
2025.03.25
|
추천 0
|
조회 245
|
Hankyeol Kim | 2025.03.25 | 0 | 245 |
489 |
[Paper Review] DUET: Dual Clustering Enhanced Multivariate Time Series Forecasting (15)
Sieon Park
|
2025.03.19
|
추천 0
|
조회 354
|
Sieon Park | 2025.03.19 | 0 | 354 |
해당 세미나는 김중훈 발표자님께서 “C2-CRS: Coarse-to-Fine Contrastive Learning for CRS”라는 논문을 바탕으로 진행되었습니다. 본 논문은 Conversational Recommender System Task에서 사용되는 DBpedia KG와 Review data 간 semantic gap을 줄여주는, Coarse-to-Fine Constrastive Learning 방법론에 대해 중점적으로 소개하고 있습니다. 기존 knowledge graph라는 Single-type의 external data만을 사용하는 것에 대비하여, Multi-type external data를 CRS에 활용한 최초의 방법론이라는 점이 큰 기여점이라고 생각하였습니다. 특히 각 History, Graph, Review encoding 값을 활용하여 전반적인 user의 preference를 반영하는 coarse-grained loss와, 해당 user의 고유한 preference를 반영하는 Fine-grained loss를 함께 사용하는 점이 흥미로웠습니다. 개인적으로 user가 가지는 representation을 3개의 영역에 범용적으로 걸쳐 학습하는 동시에, 고유의 representation을 학습하는 효과라고 생각하였습니다. 해당 기법은 CRS뿐만이 아닌, 다양한 딥러닝 Task에서 변형되어 활용할 수 있으며, 특히 Tod, Retrieval 등 사용자의 query에 따라 반영되는 타입이 많을 때 도드라지는 효과를 가져올 수 있다고 생각하였습니다. 마지막으로 ChatGPT와 같은 대화형 생성모델이 나오는 상황 속에서, CRS라는 Task가 추천시스템에서 어느정도의 경쟁력이 있는지를 깊게 생각해볼 좋은 논문이었습니다. 뿐만 아니라 발표 내용 상에서, 개요를 나눠 스텝마다 자세하게 설명해주셔서 이해하기 편했습니다. 좋은 발표 준비해주셔서 감사합니다.
금일 세미나는 ‘C2-CRS: Coarse-to-Fine Contrastive Learning for Conversational Recommender System’로 대화 시스템에서 유저에게 적절한 추천을 해주는 연구입니다. 해당 태스크는 대화 히스토리 기반으로 1)유저에게 맞는 추천과 2)적절한 답변 생성 두가지 subtask로 구성되어 있습니다. 이번 논문은 external knowledge까지 포함하여 추천의 성능을 향상시킵니다. external knowledge, review, conversation에 대한 embedding을 효과적으로 하면서 서로 align되기 위해 coarse-to-fine contrastive learning을 진행합니다. 이전의 KGSF 모델의 MIM loss와 차이점이기도 합니다. 전체적인 구조 안에 각 모듈에 대한 contrastive learning이 있고, 뒷단에 있는 coarse-grained CL을 하는 모듈이 update되고 앞단의 fine-grained CL을 하는 모듈에 영향을 주며 업데이트되는 것까지 전체적인 플로우가 흥미로웠습니다. 발표자의 의견으로 각 회사가 가지고 있는 데이터가 external knowledge로 사용되면서 더욱 효과적으로 추천시스템을 구성할 수 있게 될 것이라는 점이 인상깊었습니다.
이번 세미나는 ‘C2-CRS: Coarse-to-Fine Contrastive Learning for Conversational Recommender System’에 소개해주셨습니다. 본 논문은 추천 시스템 모듈인 CRS을 기반으로, word에 대한 정보를 기반 추가로 활용한 대화 형식의 추천 시스템을 제안합니다. 해당 모델은 Fine-Grained Contrastive learning 기반의 pre-training과, 유저가 원하는 항목에 대한 추천을 대화형식으로 제공합니다. Entity에 관한 Knowledge graph 정보를 RGCN으로 embedding하여 representation matrix로 활용하여 유저가 제시한 prompt 내 entity에 관한 배경 지식을 모델링 과정에서 활용할 수 있습니다. C2-CRS는 recommendation task은 물론, conversation task에 대해서도 모든 baseline method들에 비해 성능이 좋았습니다. knowledge graph 형태의 메타데이터를 임베딩 하는 과정이 흥미로웠고, 텍스트 데이터와 관련한 메타데이터를 효율적으로 결합하는 방법론에 대한 연구를 알 수 있어서 유익했습니다. 자세하고 친절한 설명 덕분에 이해하는데 도움이 됐습니다. 좋은 발표 감사합니다.
이번 세미나에서는 C2-CRS: Coarse-to-Fine Contrastive Learning for Conversational Recommender System 를 주제로 진행되었습니다. 우선 back ground 에서 Knowledge Graph based Semantic Fusion 에 대해 소개해 주었는데, Dialogue context 에서 추출되는 item 과 word 를 기반으로 개별적인 GCN 을 사용하여 임베딩을 시키고, 이 두가지를 MIM Loss 를 사용하여 fusion 시키는 방법론이 인상 깊었습니다. 해당 과정에서 다른 source 에서 오는 데이터셋의 융합이 더욱 rich representation 을 만들 수 있을거라 생각하였고, 이는 user 의 dialogue 상태에 따른 다른 representation 이 생성됨을 의미합니다. 또한, word 에서 오는 내용과 KG 에서 오는 정보를 DIALOGUE SYSYEM 을 위해 attention score 로 사용하는 부분이 다양한 관점에서의 추천이 되는 부분도 직관적이였습니다. 이와 유사하게 해당 논문에서는 다른 source 에서 온 데이터의 fusion 을 위해 contrastive learning 을 사용하고, 추천시스템에 더 적합하게 학습을 시켰다고 이해했습니다. 데이터 fusion 은 항상 관심있게 보고있는데, 해당 연구에서도 좋은 내용 듣고갑니다. 감사합니다.
이번 세미나는 대화형 추천 시스템(CRS, Conversational Recommender System)을 주제로 진행되었습니다. CRS는 기본적으로 Recommender와 Conversational 두 가지 모듈로 구성되어 있어 각각의 모듈을 어떻게 발전시키는지에 따라 방법론이 정해집니다. 소개해주신 C2-CRS 방법론은 과거 대화 내용(Conversation History), 지식그래프(Knowledge Graph), 사용자 리뷰(Review) 등의 정보를 잘 표현(representation)하기 위한 사전학습을 진행합니다. 특별히 서로 다른 데이터 정보를 동일한 semantic space에서 align 될 수 있도록 contrastive learning 을 적용하는 점이 본 방법론의 핵심입니다. 다만, coarse/fine grained contrastive learning이 큰 차이를 보이지 않는 것 같다는 생각이 들었습니다. CRS는 궁극적인 추천시스템의 완성형 혹은 지향점이라 생각합니다. 기회가 된다면 해당 분야의 히스토리도 팔로우 업 해보고 싶습니다. 흥미로운 주제의 발표 잘 들었습니다.
이번 세미나에서는 대화형 추천 시스템(CRS, Conversational Recommender System)에 관한 연구를 소개해주셨습니다. 발표자님은 C2-CRS 방법론을 중점적으로 설명해주셨으며, 이는 Conversation History, Knowledge Graph, Review와 같은 다양한 정보를 함께 고려하여 추천시스템의 성능을 향상시키기 위한 목적으로 개발된 기법입니다. 특히, contrastive learning을 이용하여 서로 다른 데이터 정보를 동일한 semantic space에서 align되도록 하는 것이 본 방법론의 핵심이었습니다.그러나 coarse-grained와 fine-grained contrastive learning 간의 성능 차이가 크지 않다는 점에 대해서는 약간의 의문이 있었습니다. CRS가 추천시스템의 지향점이라고 생각하며, 앞으로 해당 분야에 대한 연구가 계속 발전할 것으로 기대합니다. 흥미로운 주제와 상세한 설명에 감사드리며, 기회가 된다면 이 분야의 연구 동향을 계속 파악하고 싶다는 생각을 갖게 되었습니다. 좋은 발표 감사합니다.
이번 세미나는 C^{2}-CRS: Coarse-to-Fine Contrastive Learning for CRS를 주제로 진행되었습니다. CRS는 conversational system과 recommendation module을 결합한 task로 output은 dialogue response로 구성됩니다. 오늘 소개해주신 논문은 multi type context data간 semantic fusion을 위한 방법이며 coarse grained contrastive learning은 conversation, graph, review의 representation로 fine-grained contrastive learning은 word, entity, sentence representation으로 정의하여 진행합니다. contrastive learning이 필요한 목적을 semantic space alignment라고 주장했지만, 논문에서 보다 자세한 설명이 필요하지 않았나 생각됩니다. semantic alignment를 위해 제안된 다양한 방법중에 contrastive learning을 선택한 이유와 효과를 보여줄 수 있는 정성 평가가 부족하여 아쉬웠습니다. 더불어Automatic evaluation과 human evaluation에서 Dist-n을 제외하고는 큰 성능 차이가 나지 않았기에 추가적인 평가가 필요하다고 생각합니다. 개인적으로는 diversity metric은 대화시스템의 절대적인 성능 지표가 될 수 없다고 생각하기 때문입니다. 새로운 CRS benchmark dataset과 적절한 evaluation이 제안되면 좋을 것 같고, 특히 temporal updated item들을 반영할 수 있는 데이터셋이 나오면 좋은 연구로 이어질 것 같습니다. 좋은 발표 감사합니다.
본 세미나는 C2-CRS: Coarse-to-Fine Contrastive Learning for CRS라는 주제의 논문에 대한 리뷰를 진행했습니다. CRS는 Conversational Recommender System의 약자로, User에게 알맞은 item을 추천해주는 Recommendation Subtask와 적절한 Response 생성해주는 Conversation Subtask로 구성되어있습니다. 본 논문에서 제안한 구조인 C2-CRS는 Natural semantic gap, Multi-grained form of context data라는 motivation으로 아이디어가 출발하였습니다. 해당 motivation을 반영하기 위해 Encoding Multi-type Context Data, Coarse-to-Fine Contrastive Learning, Fine-tuning Conversation Recommender System의 순서로 학습됩니다. Coase-grained와 Fine-grained contrastive learning을 모두 진행하여 general한 방법론을 구현한 것이 인상적이었습니다. CRS task를 지난 세미나에 이어서 다뤄주셨는데, 자연어 처리와 추천 시스템이 혼합되어 있는 흥미로운 task라는 생각이 들었습니다. 좋은 발표 감사합니다.
이번 세미나는 "C2-CRS: Coarse-to-Fine Contrastive Learning for CRS"으로 대화 시스템에서 추천 방법론을 제안하고 있는 논문이었습니다. 발표자님께서 지속적으로 관심을 가지고 살펴보고 계시는 CRS는 추천을 사용자와 대화를 기반으로 하고 있어, 전통적인 추천 시스템과 다르게, 이전의 대화와 추천에 유의미한 Term을 별개로 이용해야 하는 특수한 태스크입니다. 이러한 상황에서 해당 논문은 DBPedia KG와 사용자들의 Review를 기반으로 유저에게 적절한 추천 항목을 대화를 통해 제공하는 것을 목적으로 하고 있습니다. 특히, 이때, Knowledge Graph와 타사용자 Review, 사용자의 이전 대화라는 다른 Modal 간의 Interaction을 위해 Self Attention을 적극적으로 도입하는 것을 특징으로 합니다. 이때, 적절한 Interaction을 위해 Example 간, Modal 간 Contrastive Learning을 통해 다른 Modal의 데이터를 동일한 Space에서 다루고자 합니다. 상당히 복잡한 태스크로 사용하는 데이터와 방법론에 대한 방향성이 현재 지속적으로 제시되고 있는 것으로 보이는데, 발표자님의 향후 연구방향이 기대되는 것 같습니다. 좋은 발표 감사드립니다.
이번 세미나에서는 C2-CRS: Coarse-to-Fine Contrastive Learning for CRS 논문을 소개해 주셨습니다. CRS는 발표자께서 지속적으로 소개해주시고 있는 분야로 대화 상황에서 추천하는 item을 결정하는 단계와 그를 활용해 응답을 생성하는 단계로 나뉘어 집니다. 기존의 연구들에서는 추천 item을 결정하는 과정에서 대상 item들에 대한 knowledge graph만을 활용하는데, 이번 C2-CRS는 추가로 dialogue history와 review를 함께 활용하여 일반적 정보뿐 아니라 실제 user 개인의 기호를 크게 반영할 수 있게되었습니다. 또, multi-type context data들이 multi-grained semantic form의 특성을 가진다는 관찰에서 coarse-grained contrastive learning과 fine-grained contrastive learning을 통해 서로 다른 semantic space를 fusion 하였습니다. CRS가 일반적인 추천 시스템과 다른점은 대화 중에 작동한다는 점이기 때문에, 본 연구와 같이 대화를 통해 사용자 개인에 대한 정보를 추가적으로 반영을 하는 것은 앞으로는 반드시 포함되어야 한다고 생각이 듭니다. 추가로 Knowledge graph의 representation 을 학습하는 과정에서 각 노드의 representation을 해당 단어의 word representationㅇ,ㄹ 활용하지 않고 무작위로 initialize 했다는 점이 제가 기존에 시도해 봤던 점과는 달라 인상적이었습니다. 좋은 발표 감사합니다.
이번 세미나는 "C2-CRS: Coarse-to-Fine Contrastive Learning for CRS"라는 논문에 대해 소개해 주셨습니다. CRS는 conversational system에 기반한 recommendation task로 사용자에게 알맞은 item과 그에 적절한 conversation을 생성해주는 것을 목적으로 합니다. 본 논문에서 제안한 방법론은 multi-type context data의 정보를 반영하기 위해 coarse-grained contrastive learning과 fine-grained contrastive learning을 진행한 것이 특징입니다. 이 때, 각각을 진행하는 이유는 결구 둘 간의 semantic information을 align하기 위함이라고 주장하였는데, 어느정도 합리적인 부분이 있다고 생각되었지만 정말로 논리적인지에 대한 부분은 좀 더 검증이 필요하지 않을까라는 생각이 들었습니다. 하지만 본 논문에서 주장한대로 semantic gap을 메꾸는 것은 CRS task에 있어서 중요한 part임은 공감하였습니다. 좋은 발표 감사드립니다.
이번 세미나에서는 contrastive learning을 이용하여 제한된 대화 맥락에서 사용자의 선호도를 추론할 수 있는 효과적인 대화형 추천 시스템(CRS)에 관한 논문인 C2-CRS: Coarse-to-Fine Contrastive Learning for CRS”에 대해 다뤄 주셨습니다. CRS는 사용자와 대화를 함과 동시에 추천을 같이 행해주는 Task로 적절한 Reponse를 생성함과 동시에 사용자에게 알맞은 Item을 추천해주는 것이 중요하다 할 수 있습니다. C2-CRS에서는 다양한 외부 데이터를 효과적으로 활용하여 맥락 정보를 풍부하게 하고, multi-type context data의 정보를 반영하기 위해 coarse-grained contrastive learning과 fine-grained contrastive learning을 진행한 것이 특징이며 각각을 진행하는 이유는 결국 둘 간의 semantic information을 align하기 위함이라고 주장하였습니다. 대화와 동시에 추천까지 같이 행해줘어야 하기 때문에 Knowledge Graph를 같이 활용하고 있는데, 이 때문에 접근이 더 어려웠지만, 발표자분께서 잘 설명해주신 덕분에 잘 와닿을 수 있었습니다. 좋은 발표 감사합니다.
이번 세미나에서는 C2-CRS: Coarse-to-Fine Contrastive Learning for Conversational Recommender System이라는 논문을 소개해 주셨습니다. C2-CRS는 Knowledge Graph 뿐만 아니라 Review와 같이 다양한 형태의 외부 데이터를 CRS에 최초로 활용한 방법론입니다. 해당 방법론에서는 Conversation Representation(Rep.), Graph 기반의 User Rep., Review 기반의 User Rep.을 사용합니다. Coarse-grained Contrastive Learning(CL)에서는 Conversation, Graph, Review라는 서로 다른 관점에서의 특정 User의 Rep. 끼리 Positive Sample로 사용하고, Batch 내 다른 User의 Rep.을 Negative Sample로 사용해 CL을 수행합니다. 이를 통해 서로 다른 관점에서의 User Preference의 Semantic Space Alignment를 유도합니다. Fine-grained CL에서는 Positive Sample로는 특정 User의 Word Rep., Entity Rep., Sentence-Rep.을 사용하고 Batch 내 다른 User의 Rep.들을 Negative Sample로 사용합니다. CRS라는 Task가 단일 모델로 구성되지가 않아 이해가 어려울 수도 있었으나 발표자 분께서 발표 자료를 잘 구성해주셔서 이해에 많은 도움이 되었습니다. 좋은 발표 감사드립니다.
이번 세미나에서는 C2-CRS: Coarse-to-Fine Contrastive Learning for CRS 논문을 다루어 주셨습니다. 메인 아이디어는 Coarse-grained contrastive learning과 Fine-Grained Contrastive Learning을 통해 다른 데이터간의 semantic한 gap을 align시키자는 아이디어로 진행되고 있습니다. 본 발표에 앞서 background에서 데이터셋에 대해 상세히 설명해주셔서 어떤 차이점이 있는지 살펴볼 수 있었고, CRS의 기본 구조를 짚고 넘어가 주셔서 추후 발표를 이해하는데 많은 도움이 되었습니다. 해당 방법론에서는 multi-type external data를 CRS에 최초로 활용하였다는 contribution이 있고, external data가 추가되어도 활용할 수 있다는 점이 있습니다. Multi-type external data에는 크게 conversation history, knowledge graph, review가 포함되어 있으며, 다음으로 representation 공간을 효과적으로 fusion하기 위한 방법이 필요하기에 multi-grained correlations에 기반하여 coarse-to-fine contrastive learning을 이용하고 있습니다. 명칭은 coarse-to-fine contrastive learning인데 figure상으로는 fine-grained contrastive learning, coarse-grained contrastive learning순으로 구성되어 있는 부분에 대해 궁금증이 생겼습니다. 지속적으로 CRS 관련 논문을 소개해 주시고 있어 관련 연구의 흐름을 잘 따라갈 수 있는 것 같습니다. 좋은 발표 감사합니다!
이번 세미나는 발표자분이 저번 세미나에도 진행해주셨던 CRS task에 관한 C2-CRS: Coarse-to-Fine Contrastive Learning for Conversational Recommender System 논문을 바탕으로 진행되었습니다. 먼저 CRS task란 Effective Recommendation을 바탕으로 User에게 Nature Language Conversation을 제공하는 것을 의미합니다. 이때 CRS에는 적절하게 상품을 추천해주는 Recommendation subtask와 적절한 Response를 생성하는 Conversation subtask가 존재하여 이 두 가지 Task를 종합하여 이루어지게 됩니다. 해당 논문에서 제시하는 C2-CRS는 Multi-type external data를 최초로 CRS에 이용하고자 다양한 Type의 Data들이 가지 Natural semantic gap을 General한 Method로 채워주면서, Context data들이 전체에 대한 의미와 각 Word에 대한 의미를 따로 가지는 Multi-grained form of context data임을 고려하여 모든 Semantic을 반영하고자 Contrastive learning을 통하여 Multi-grained semantic alignment를 수행하는 방법입니다. 결론적으로 서로 다른 Data type의 정보를 반영하고자 Coarse-grained contrastive learning과 Fine-grained contrastive learning를 수행하여 Different data signals 간 Semantic space fusion을 이뤄내어 좋은 성능을 달성할 수 있었습니다. 전체적인 방법론과 데이터에 대한 설명을 시각화 자료를 통하여 자세하게 설명해 주신 덕분에 이해가 수월했습니다. 좋은 발표 감사드립니다.
이번 세미나에선 C2-CRS: Coarse-to-Fine Contrastive Learning for CRS 라는 연구에 대해 소개되었습니다. 논문에선 Conversational Recommender System 에 사용될 수 있는 pre-training 으로 Coarse-to-Fine Contrastive Learning 방식을 제안합니다. 일반적인 contrastive learning은 single granularity 의 representation만을 활용하는데 논문에선 multi-type external data를 사용하여 각각의 fine-grained, coarse-grained representation 을 사용한 multi-grained contrastive learning 방법론을 제안하여 data type 에 따른 semantic gap을 줄였다는 데에 의의가 있는 것 같습니다. 제시된 figure에선 conversation history, knowledge graph, review 데이터가 사용되고 있지만 각각을 위한 encoder가 구분되어 있기에 여러 이미지를 포함한 여러 타입의 데이터도 제안 방법론에 활용될 수 있을 것으로 생각됩니다. 발표 중 설명을 위한 적절한 figure가 이해하는 데에 많은 도움이 되었던 것 같습니다. 좋은 세미나 발표 감사합니다.
이번 세미나는 대화형 추천 시스템을 주제로, 발표자분께서 C2-CRS: Coarse-to-Fine Contrastive Learning for CRS 논문을 소개해주셨습니다. CRS는 저희 연구실에서 기존에 다뤄진 적이 없던 task인 만큼 지난 세미나에 이어서 task에 대한 명확한 description을 설명해주신 점이 이해에 도움이 되었습니다. CRS의 경우 대화 히스토리를 입력으로 받아 user에게 아이템을 추천하는 recommendation과 적절한 답변을 생성하는 conversation, 이렇게 두가지 subtask로 구성됩니다. 금번 세미나를 통해 소개해주신 논문에서는 CRS에 활용되는 context 데이터가 multi-grained semantic form의 특성을 가지고 있다는 점을 motivation으로 삼고 있습니다. 말그대로 대화에 포함되는 단어들이 문맥이나 아이템의 종류에 따라 여러 의미 정보를 가질 수 있고 이러한 의미적 다양성을 학습 과정에서 반영하겠다 아이디어를 바탕으로, corse-grained contrastive learning과 fine-grained contrastive learning을 통해 서로 다른 semantic space를 fusion하는 방법론을 제안합니다. CRS 분야에서 주로 활용되는 데이터셋과 평가지표에 대해서도 접할 수 있어서 유익한 시간이었던 것 같습니다. 좋은 발표 진행해주셔서 감사합니다.
금일 세미나는 "C2-CRS: Coarse-to-Fine Contrastive Learning for CRS"라는 주제로 진행되었습니다. 본 발표에서는 Effective Recommendation을 User에게 Natural Language Conversation을 통해 제공하는 Conversational Recommender System이 다루어졌고, Coarse-Grained Contrastive Learning과 Fine-Grained Contrastive Learning을 통해 different data의 multi-grained semantic gap을 alignment하는 C2-CRS가 소개되었습니다. 시계열 데이터 분석에서 coarse-to-fine scheme을 사용하여 multi-resolution으로 특징을 추출하는데 C2-CRS에서는 Encoding된 Multi-type context data의 representation space를 효과적으로 Fusion하기 위하여 Multi-grained correlations 기반의 Coarse-to-Fine Contrastive Learning을 활용한 점이 흥미로웠습니다. 개인적으로는 시계열 데이터 분석에서 활용되는 방식들이 NLP에서는 어떻게 활용되고 있는지 비교하면서 들을 수 있어서 재밌었습니다. 좋은 발표 감사합니다.
이번 세미나는 'C2-CRS: Coarse-to-Fine Contrastive Learning for CRS'에 대해 진행되었습니다. CRS는 conversational recommender system의 약자로, natural language conversation을 통해 사용자에게 효과적인 추천을 하는 task를 말하며, 사용자와의 대화를 통해 사용자가 원하는 바를 파악해내는 conversation module과 이를 바탕으로 알맞은 추천을 해주는 recommendation module로 나뉩니다. C2-CRS는 multi-type external data를 처음으로 도입하였으며, fine-grained와 coarse-grained representation을 함께 사용하여 multi-grained contrastive learning을 적용하고 있습니다. 이를 통해 semantic information을 align할 수 있게 된다고 주장하고 있습니다. CRS라는 task는 다소 생소한 task이었으나, 이를 감안하여 기본 개념부터 예시와 함께 찬찬히 설명해주시어 보다 쉽게 이해할 수 있었습니다. 또한, 각종 데이터셋과 기존 background의 장표 등이 청자의 입장에서 한눈에 와닿을 수 있도록 구성되어 있다고 느껴졌습니다. 발표자 분의 적당한 속도와 크기의 발표 진행으로 해당 시간을 잘 집중할 수 있었던 것 같습니다. 좋은 발표 준비해주셔서 감사드립니다.
이번 세미나는 WSDM 2022에 게재된 C2-CRS: Coarse-to-Fine Contrastive Learning for Conversational Recommender System 논문으로 진행되었습니다. 이번 세미나에서 가장 흥미롭게 들었던 부분이 Method 쪽에서 ‘Coarse-to-Fine Contrastive Learning’ 부분인데 제가 최근에 발표했었던 논문 중 MuGER2라는 논문과 비록 다른 분야이지만 다양한 Granularity를 다룬다는 점에서 참고할 부분이 많다는 생각이 들었습니다. 대화 히스토리, Knowledge Graph, Review 데이터와 같이 다양한 유형의 데이터의 representation space를 효과적으로 fusion하기 위해 단어 representation, node representation, sentence representation을 이용해 contrastive learning을 수행한 뒤 이렇게 각 granularity별로 구해진 user의 representation을 이용해 다시 한번 더 coarse-grained contrastive learning을 수행하는 2차례의 contrastive learning이 본 논문의 핵심인 것 같은데 table 데이터도 다양한 granuarlity를 가지는 만큼 이를 활용해볼 방법이 있을 것 같습니다. 좋은 발표 감사합니다.
이번 세미나는 C2-CRS: Coarse-to-Fine Contrastive Learning Conversational Recommender System를 주제로 진행되었습니다. 대화를 통해 유저에세 효과적인 추천을 목적으로 하는 task인 conversational recommender system을 다루고 있습니다. 본 논문에서는 coarse to fine grained contrastive learning를 진행하여 multi-grained semantic gap을 align하는 과정을 다루고 있습니다. 해당 연구에서 서로 다른 data의 semantic gap을 줄인다는 접근이 인상 깊었습니다. 좋은 발표 감사합니다.
금일 세미나는 C2-CRS: Coarse-to-Fine Contrastive Learning for CRS 논문에 대해서 소개해주셨습니다. 해당 논문은 conversation recommender system을 위해 제안된 방법으로 기존 Knowledge Graph-based Semantic Fusion (KGSF) 방법에서 Dialog history, DBpedia KG, 그리고 ConceptNet KG를 masked language modeling(MIM)으로 하는 것 대신 Dialog history, DBpedia, 그리고 Review를 Coarse-to-Fine Contrastive Learning 으로 사전학습 방법을 적용한 C2-CRS 구조를 제안하였습니다. 세미나 내용을 들으며 서로다른 데이터를 embedding으로 뽑은 후 fine-grained contrastive learning과 이후 self-attention을 통한 coarse-grained contrastive learning을 적용하는 과정에서 순서가 coarse to fine이 아닌 fine to coarse 아닌가 라는 생각이 들었습니다. CRS에서 여러 도메인의 데이터를 pretraining에 활용하는 방법으로서 새로운 내용을 알게 되어 유익했고 CV와 마찬가지로 NLP에서의 granularity를 다루는 점이 인상적이었습니다. 좋은 발표 감사합니다.