| 번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
| 공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 14580
|
관리자 | 2020.03.12 | 0 | 14580 |
| 공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 13348
|
관리자 | 2020.03.12 | 0 | 13348 |
| 공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 14283
|
관리자 | 2020.03.12 | 0 | 14283 |
| 550 |
[Paper Review] Towards a General Time Series Anomaly Detector with Adaptive Bottlenecks and Dual Adversarial Decoders (5)
Sunghun Lim
|
2026.03.01
|
추천 0
|
조회 82
|
Sunghun Lim | 2026.03.01 | 0 | 82 |
| 549 |
[Paper Review] Rethinking the Power of Timestamps for Robust Time Series Forecasting: A Global-Local Fusion Perspective (7)
Suyeon Shin
|
2026.02.25
|
추천 0
|
조회 88
|
Suyeon Shin | 2026.02.25 | 0 | 88 |
| 548 |
[Paper Review] Recent Research Trends Foundation Model for Visual Anomaly Detection (10)
Jaehyuk Heo
|
2026.02.12
|
추천 0
|
조회 232
|
Jaehyuk Heo | 2026.02.12 | 0 | 232 |
| 547 |
[Paper Review] Vision-based and Multimodal Approaches for Time Series Analysis (8)
Hyeongwon Kang
|
2026.02.10
|
추천 0
|
조회 218
|
Hyeongwon Kang | 2026.02.10 | 0 | 218 |
| 546 |
[Paper Review] Introduction to Neural Operator (10)
Hankyeol Kim
|
2026.02.03
|
추천 0
|
조회 288
|
Hankyeol Kim | 2026.02.03 | 0 | 288 |
| 545 |
[Paper Review] Enhancing Time Series Forecasting through Selective Representation Spaces: A Patch Perspective (12)
Sieon Park
|
2026.01.29
|
추천 0
|
조회 354
|
Sieon Park | 2026.01.29 | 0 | 354 |
| 544 |
[Paper Review] ELFS: Label-Free Coreset Selection with Proxy Training Dynamics (12)
Subeen Cha
|
2026.01.28
|
추천 0
|
조회 250
|
Subeen Cha | 2026.01.28 | 0 | 250 |
| 543 |
[Paper Review] Model Merging for Continual Learning (11)
Hun Im
|
2026.01.24
|
추천 0
|
조회 257
|
Hun Im | 2026.01.24 | 0 | 257 |
| 542 |
[Paper Review] Selective Learning for Deep Time Series Forecasting (13)
Jinwoo Park
|
2026.01.24
|
추천 0
|
조회 359
|
Jinwoo Park | 2026.01.24 | 0 | 359 |
| 541 |
[Paper Review] Multiple Instance Learning in Time Series (9)
Doyoon Kim
|
2026.01.13
|
추천 0
|
조회 441
|
Doyoon Kim | 2026.01.13 | 0 | 441 |
이번 세미나는 추천 시스템 분야에서 LLM을 Re-Ranker 역할로 활용하여 주어진 후보군 중 다양한 관점으로 순위를 측정해 Top-K개의 상위 아이템을 선별하는 RecRanker라는 모델을 제안한 "RecRanker: Instruction Tuning Large Language Model as Top-k Recommendation”라는 논문에 대한 발표를 중심으로 진행되었습니다. 해당 방법론은 기존 방법론들의 학습 데이터를 구성하는 샘플링 방법, 그리고 아이템의 Ranking Task가 단순하다는 점, 그리고 너무 많은 부분을 Textual 정보에 의존한다는 문제점을 지적합니다. 이를 해결하기 위해 Adaptive Sampling 기법을 통해 사용자를 잘 대표하는 샘플들을 통해 학습 데이터를 구성하고, Hybrid Ranking을 통해 아이템 간의 비교를 수행하며, 추론 시에 LLM에만 의존하는 것이 아닌 Conventional Model로 먼저 후보군을 선정한 이후 이를 Prompt에 입력하는 방법을 사용합니다. 최근 추천시스템 분야에서 LLM을 효과적으로 적용하기 위한 다양한 연구들이 진행되고 있는 것으로 확인되는데, 현실적인 적용 방안으로 LLM을 Re-Ranker의 역할로 활용한다는 점이 타당하다는 생각이 들었습니다. 또한 Conventional Model과의 적절한 조합을 통해서 합리적인 적용 방안을 고안해냈다는 생각도 들었습니다. 좋은 발표 해주셔서 감사합니다.
금일 세미나는 전통적인 추천시스템을 통해 산출된 후보 아이템들 중 reranking 과정을 LLM을 통해 수행할 수 있도록하는 instruction finetuning 방법론을 제안한 “RecRanker: Instruction Tuning Large Language Model as Ranker for Top-k Recommendation”을 중심으로 진행되었습니다. 그 동안 LLM을 활용한 추천시스템 연구는 reranker로서의 역할을 간주하기보다는 단순히 주어진 item의 추천 여부를 선정하는 방식으로 활용하고 있습니다. 하지만 해당 방식은 막대한 크기의 LLM을 활용하기에 좋은 방식은 아닙니다. 실제 reranking 환경을 모사한 학습 데이터를 구축하고 이를 이용해 LLM이 직접적으로 reranking하도록 유도합니다. 그 결과 단순 추천 시스템을 이용한 경우보다 꾸준히 성능이 향상되는 결과를 확인할 수 있으며, 특히 다양한 추천시스템에 적용했을 때에 꾸준히 성능이 개선되는 모습을 보이고 있습니다. 이외에도 기존 추천시스템 연구에서는 확인하기 어려웠던 hallucination 문제 등을 분석하며 향후 LLM을 추천시스템에 적용하는 상황에서 해결해야 할 문제들을 짚어주고 있습니다. 좋은 발표 감사합니다.
이번 세미나에서는 "RecRanker: Instruction Tuning Large Language Model as Ranker for Top-k Recommendation" 논문이 발표되었습니다. 해당 연구는 LLM을 추천 시스템의 Re-Ranker로 활용하는 방법론을 제안하며, Instruction Tuning을 통해 다양한 랭킹 과업(Pointwise, Pairwise, Listwise)에 최적화된 모델을 구축했습니다. 또한, Adaptive Sampling과 Prompt Enhancement을 도입하여 학습 데이터의 품질을 높이고, 기존 추천 모델과의 조합을 통해 효율적인 랭킹 성능을 달성한 점이 인상적이었습니다. 특히, Position Shifting 기법을 활용하여 순위 추론의 편향성을 완화한 접근이 현실적인 적용 가능성을 높였다고 생각됩니다. 실험에서도 기존 방법보다 일관된 성능 향상을 보여주었으며, Ablation Study를 통해 각 기법의 효과를 면밀히 분석한 점이 신뢰도를 높였습니다. LLM을 추천 시스템에 효과적으로 활용하기 위한 방향성을 제시한 연구로, 향후 발전 가능성이 크다고 느꼈습니다. 좋은 발표 감사합니다!
이번 세미나에서는 "RecRanker: Instruction Tuning Large Language Model as Ranker for Top-k Recommendation"이라는 논문에 대한 소개를 중심으로 진행되었습니다. 해당 논문은 주어진 후보군 중 다양한 관점으로 아이템의 순위를 측정한 후 종합하여 상위 아이템(top-k)을 선별하는 Re-Ranker 역할의 LLM 활용 방법론을 제안하였습니다. 해당 LLM을 어떻게 최적화하여 추천 과업에 적용할 수 있는지에 대한 방법론이 이야기하며, Adaptive User Sampling을 통해 사용자 집합을 대표할 수 있는 사용자를 선택하고, 여러 가지 Ranking Task를 통해 학습을 진행하는 것이 포함됩니다. 이와 같은 접근은 추천 시스템의 정확도와 효율성을 동시에 향상시키려는 시도로 보입니다. 전체적으로 해당 연구는 LLM을 활용한 추천 시스템의 새로운 가능성을 탐색하고, 실제 적용 가능성을 높이는 여러 방법론을 제시함으로써 추천 시스템 연구에 있어 중요한 기여를 하였다고 생각합니다. 좋은 발표 준비해주셔서 감사합니다.
이번 세미나에서는 "RecRanker: Instruction Tuning Large Language Model as Ranker for Top-k Recommendation" 논문을 소개해 주셨습니다. 해당 연구는 LLM을 추천 시스템의 Re-Ranker로 활용하는 방법론을 제안하며, 기존 추천 시스템의 한계를 극복하기 위해 다양한 기법을 도입한 점이 인상적이었습니다. 특히, Instruction Tuning을 적용하여 LLM을 다양한 랭킹 방식(Pointwise, Pairwise, Listwise)에 최적화하고, Adaptive User Sampling과 Prompt Enhancement을 통해 데이터의 품질을 향상시키는 전략을 제시한 점이 흥미로웠던 것 같습니다. 또한, Position Shifting 기법을 활용하여 추천 아이템의 순위 편향을 줄이고, 기존 추천 모델과의 조합을 통해 성능을 개선한 점이 실제 추천 시스템에 적용하기 위한 실용성을 높였다고 생각이 들었던 것 같습니다. 항상 LLM 기반 추천 시스템 관련 연구를 소개해 주시는데 앞으로 향후 발표자분의 연구 방향 또한 기대가 되었던 것 같습니다. 좋은 발표 감사합니다.
이번 세미나에서는 RecRanker: Instruction Tuning Large Language Model as Top-k Recommendation 논문을 중심으로 진행되었습니다. RecRanker는 기존 추천 시스템의 한계를 극복하기 위해 LLM을 Re-Ranker로 활용하는 방법론을 제안하며, 주어진 후보군 내에서 다양한 관점으로 아이템의 순위를 매긴 후 최적의 상위 k개 아이템을 선별하는 프레임워크를 구축합니다. 이를 위해 Adaptive User Sampling, Importance-Aware Sampling, Clustering-Based Sampling 등의 전략을 도입하여 학습 데이터의 품질을 개선하고, Pointwise, Pairwise, Listwise Ranking Task를 결합한 Hybrid Ranking 방식을 통해 모델이 다양한 비교 기준을 학습하도록 설계되었습니다. 또한, LLM이 기존 추천 모델과 결합하여 더 정교한 순위 산출이 가능하도록 Prompt Enhancement 및 Position Shifting 기법을 활용하며, Instruction Tuning을 적용하여 추천 과업에 최적화된 LLM을 학습시킵니다. 실험 결과, RecRanker는 MovieLens와 BookCrossing 데이터셋에서 기존 추천 모델 대비 성능 향상을 보였으며, Hybrid Ranking이 가장 높은 추천 성능을 기록하였습니다. 특히, LLaMA-2(7B)를 활용한 실험에서 GPT-3.5 및 GPT-4 대비 우수한 성능을 보이며 Instruction Tuning의 효과를 입증하였고, Out-of-Domain 데이터셋에서도 강건한 성능을 유지하여 일반화 가능성을 확인하였습니다. 발표를 통해 LLM을 활용한 추천 시스템 개선 방향에 대한 유익한 논의를 나눌 수 있었습니다.
이번 세미나에서는 “RecRanker: Instruction Tuning Large Language Model as Ranker for Top-k Recommendation” 논문을 중심으로, 추천 시스템에서 LLM을 Re-Ranker로 활용하여 후보군 내 다양한 관점으로 아이템의 순위를 산출하고 최적의 상위 k개 아이템을 선별하는 새로운 프레임워크가 소개되었습니다. 해당 방법론은 기존 추천 모델의 한계를 극복하기 위해 Adaptive User Sampling, Importance-Aware Sampling, Clustering-Based Sampling 등의 전략을 도입하여 학습 데이터의 품질을 개선하고, Pointwise, Pairwise, Listwise Ranking Task를 결합한 Hybrid Ranking 방식을 활용해 LLM의 평가 능력을 극대화하였습니다. 또한, Conventional Model을 통해 초기 후보군을 선정한 후 Prompt Enhancement와 Position Shifting 기법을 적용한 Instruction Tuning을 통해 LLM이 더욱 정교한 순위 산출에 기여할 수 있도록 설계한 점이 주목받았으며, MovieLens와 BookCrossing 데이터셋에서 LLaMA-2(7B)를 비롯한 여러 모델 실험 결과, 기존 모델 대비 우수한 성능과 Out-of-Domain 데이터셋에서도 강건한 일반화 능력을 입증한 점이 인상적이었습니다. 좋은 발표 해주셔서 감사합니다.
이번 세미나에서는 추천 시스템에서 대형 언어 모델을 Re-Ranker로 활용하여 아이템 추천을 수행하는 ‘RecRanker: Instruction Tuning Large Language Model as Ranker for Top-k Recommendation’ 논문에 대해 발표해 주셨습니다. 해당 논문은 Instruction Tuning 기법을 통해 LLM을 추천 과업에 최적화하고, 다양한 유형의 Ranking Task(Pointwise, Pairwise, Listwise)를 혼합한 Hybrid Ranking을 도입한 점이 인상적이었습니다. 이 논문은 기존의 추천 시스템들이 텍스트 정보와 사용자-아이템 상호작용에 지나치게 의존했던 한계를 개선하고, Adaptive User Sampling 및 Prompt Enhancement를 통해 데이터의 다양성과 품질을 확보하는 방법론을 제안했습니다. 또한, Position Shifting 기법으로 순위 추론의 편향성을 줄이는 노력이 돋보였습니다. 무엇보다 방대한 양의 실험과 Ablation Study를 통해 방법론의 효과성을 입증한 점이 인상깊었습니다. 흥미로운 주제로 좋은 발표해 주셔서 감사합니다.
이번 세미나에서는 "RecRanker: Instruction Tuning Large Language Model as Ranker for Top-k Recommendation" 논문이 소개되었습니다. 이 연구는 기존 추천 시스템에서 대형 언어 모델을 랭커로 활용하는 방식의 한계를 개선하기 위해 RecRanker라는 새로운 프레임워크를 제안했습니다. 특히, LLM을 효과적으로 튜닝하기 위해 적응형 사용자 샘플링, 위치 편향 완화, 기존 추천 모델의 정보 통합 등의 기법을 도입한 점이 인상적이었습니다. 핵심 아이디어는 LLM을 직접 랭킹 모델로 학습하여 기존 추천 모델에서 제공하는 정보와 결합해 더 정교한 추천을 수행하는 것입니다. 이를 위해 다양한 랭킹 학습 방식(pointwise, pairwise, listwise)을 적용하고, 최종적으로 하이브리드 랭킹 방법을 통해 성능을 향상시켰습니다. 실험에서도 기존 LLM 기반 추천 모델보다 일관된 성능 향상을 기록한 점이 주목할 만합니다. 또한, 위치 편향을 줄이기 위해 추천 아이템의 위치를 랜덤으로 변경하는 전략과, 기존 추천 모델에서 얻은 정보를 프롬프트에 추가하여 LLM이 더 풍부한 맥락을 이해할 수 있도록 한 점도 실용적인 측면에서 의미 있는 기여라고 생각됩니다. 이 논문은 LLM을 추천 시스템의 랭커로 활용하는 방안을 더욱 발전시킨 연구로, 실제 서비스에서의 적용 가능성이 높아 보입니다. 다양한 랭킹 방법을 조합한 하이브리드 방식이 LLM의 한계를 극복하는 데 효과적이라는 점이 흥미로웠습니다. 좋은 발표 감사합니다!
이번 세미나에서는 "RecRanker: Instruction Tuning Large Language Model as Ranker for Top-k Recommendation" 논문에 대해 발표가 진행되었습니다. 이 연구는 대형 언어 모델(LLM)을 추천 시스템의 랭커로 활용하기 위해 Instruction Tuning을 적용하고, 다양한 랭킹 방식을 혼합한 하이브리드 랭킹 기법을 제안했습니다. 또한, Adaptive User Sampling, Prompt Enhancement, Position Shifting 기법을 통해 추천 데이터의 다양성과 품질을 개선하고, 순위 추론의 편향성을 줄이려는 노력이 돋보였습니다. 실험을 통해 기존 LLM 기반 추천 모델보다 일관된 성능 향상을 보여주며, 추천 시스템의 발전 가능성을 확인할 수 있는 흥미로운 연구였습니다. 좋은 발표 감사합니다!
금일 세미나는 “RecRanker: Instruction Tuning Large Language Model as Ranker for Top-k Recommendation” 연구를 바탕으로 진행되었습니다. 제안 연구에서는 LLM 기반의 추천 시스템 구축을 목표로 하고 있습니다. 이를 위하여 전체 사용자 집합을 대표하는 사용자들을 추출하여, 주어진 후보군을 바탕으로 서로 다른 유형의 추천 과업의 instruction tuning을 통해 Direct/Sequential 추천 과업을 모두 수행할 수 있는 LLM을 학습시키는 프레임워크를 제안합니다. 이때 LLM을 추천 시스템의 Ranker로 활용하기 위해 Instruction Tuning을 적용하고, 다양한 랭킹 방식을 결합한 하이브리드 랭킹 기법을 사용하며, 기존 추천 모델들이 텍스트 정보와 사용자-아이템 상호작용에 과도하게 의존하는 한계를 극복하기 위해 Adaptive User Sampling과 Prompt Enhancement을 도입하여 데이터의 다양성과 품질을 향상시키는 전략을 제시해주고 있습니다. 또한, 추천 시스템에서 발생하는 위치 편향(Position Bias)을 완화하기 위해 Position Shifting 기법을 활용하였으며, 다양한 랭킹 방식(Pointwise, Pairwise, Listwise)을 통합함으로써 LLM 이 단순히 텍스트 기반 추천을 넘어, 기존 추천 모델과의 결합을 할 수 있도록 유도해 주고 있습니다. 상세한 설명과 함께 좋은 발표 감사드립니다.
이번 세미나에서는 “RecRanker: Instruction Tuning Large Language Model as Ranker for Top-k Recommendation” 논문이 소개되었습니다. 이 연구는 대형 언어 모델(LLM)을 추천 시스템의 Ranker로 활용하는 새로운 접근법을 제안하며, 특히 Instruction Tuning을 통해 추천 과업에 최적화하는 방법을 다루고 있습니다. 기존 추천 시스템이 사용자-아이템 상호작용 데이터나 텍스트 정보에 과도하게 의존하는 문제를 해결하기 위해 Adaptive User Sampling과 Prompt Enhancement 기법을 적용한 점이 인상적이었습니다. 또한, 다양한 랭킹 방식(Pointwise, Pairwise, Listwise)을 결합한 하이브리드 랭킹 기법을 도입하여 LLM이 단순한 후보 선정 역할을 넘어, 더욱 정교한 순위 예측을 수행할 수 있도록 설계되었습니다. 특히, Position Shifting 기법을 활용하여 추천 아이템의 위치 편향을 완화하고, 데이터 다양성을 확보하는 방식이 흥미로웠습니다. 실험 결과에서도 기존 LLM 기반 추천 모델 대비 성능 향상이 확인되었으며, Ablation Study를 통해 각 기법의 효과성을 검증한 점이 신뢰도를 높였습니다. 좋은 발표 감사합니다.