[Paper Review] Training Large Language Models to Reason in a Continuous Latent Space

작성자
Jaehee Kim
작성일
2025-01-05 20:35
조회
460
1. 논문 제목 : Training Large Language Models to Reason in a Continuous Latent Space

2. 논문 링크: https://arxiv.org/abs/2412.06769

3. Overview:

- latent mode를 활용한 reasoning 유도 학습/추론 프레임워크 제안

- continuous reasoning 시 모델의 추론 방식에 대한 다양한 분석 진행

- 기존 CoT 방식 대비 성능 소폭 개선 및 추론 토큰 수 감소

4. 이번 세미나 주제는 지난 2024년 12월 Meta에서 발표된 "Training Large Language Models to Reason in a Continuous Latent Space"입니다. CoT는 다양한 태스크에서 LLM의 능력을 최대한으로 끌어낼 수 있는 방법론으로서 최근 Mathematical Reasoning과 같은 복잡한 논리 추론이 필요한 문제부터 Agent와 같이 문제가 어려운 태스크에서 활발히 활용되고 있습니다. 하지만, 최종 결과물을 도출하기 위해 중간 Reasoning Path를 생성해야 하는 구조 특성 상 매우 높은 추론 비용을 필연적으로 발생시킵니다. 이에 해당 논문은 representation을 reasoning path로 활용하는 학습 방법론을 제안하여 추론 비용을 획기적으로 감소하면서도 성능을 유지하는 모습을 보여주고 있습니다. 또한, representation 분석을 통하여 추론 과정에 대한 깊은 이해를 돕고 있는 연구입니다.

5. 발표자료 및 영상
  • 발표자료: 하단 첨부
  • 발표영상:
전체 12

  • 2025-01-06 13:19

    본 세미나는 COCONUT이라고 불리는 Reasoning 과정을 representation 단에서 수행하는 방법론을 제안한 논문을 중심으로 진행되었습니다. 기존 연구의 문제점은 추론을 token 단위로 하기에, 시간과 생성 비용 측면에서 비효율적 추론이 발생하나 LLM의 hidden states를 통해 추론을 효율적으로 진행하는 아이디어를 중심으로 논문은 전개됩니다. 방법론의 핵심은 이전 시점의 token이 아닌, 이전의 시점의 representation을 기반으로 추론이 진행된다는 점이며 N개의 Stage로 확장하여 학습을 시킵니다. 하지만 성능 측면에서 일반 CoT 대비 성능이 떨어졌으며, 원인을 생각해보았을 때 답을 도출하는 정확한 Path를 간소화 및 추상화시키기 때문에 성능이 하락되지 않았나 생각합니다. 좋은 발표 준비해주셔서 감사합니다.


  • 2025-01-07 19:16

    이번 세미나에서는 LLM의 추론 방식을 효율적으로 만들어, 더 복잡하고 다양한 문제를 효과적으로 해결할 수 있는 방법을 제시한 “Training Large Language Models to Reason in a Continuous Latent Space” 논문에 대해 발표해 주셨습니다. 해당 논문은 대규모 언어 모델이 연속적인 잠재 공간에서 추론을 수행할 수 있도록 하는 새로운 프레임워크인 COCONUT을 제안하며, 기존의 Chain of Thought(CoT) 방식을 혁신적으로 개선합니다. 기존의 CoT 방식은 각 추론 단계를 명시적으로 토큰화하여 처리하므로 많은 계산 비용이 발생하며, 이는 특히 복잡한 문제를 해결할 때 불리하게 작용합니다. COCONUT 방식은 이러한 문제를 해결하기 위해 추론 과정을 잠재 공간의 representation으로 수행하며, 이는 단계적인 추론을 필요로 하는 기존 방식보다 효율적입니다. 이를 통해 모델은 불필요한 토큰 생성을 줄이면서도 추론 과정의 연속성을 유지할 수 있다는 점이 인상깊었습니다. 또한, 논문은 COCONUT 프레임워크가 Language 모드와 Latent 모드 사이를 유연하게 전환하면서 작동한다는 점을 강조하고 있습니다. 이러한 이중 모드 구조는 모델이 문제의 복잡성에 따라 최적의 추론 경로를 선택할 수 있게 하며, 결과적으로 추론 효율성을 높인다고 생각합니다. 흥미로운 주제로 좋은 발표해 주셔서 감사합니다.


  • 2025-01-09 14:09

    이번 세미나는 기존 CoT가 추론 시에 모든 Reasoning Step에 대해 토큰을 생성하여 비효율적이라는 한계점을 극복하기 위해 Reasoning 과정을 Representation에서 수행하여 적은 추론 토큰을 활용할 수 있도록 한 COCONUT이라는 방법론을 제안한 “Training Large Language Models to Reason in a Continuous Latent Space”라는 논문에 대한 발표를 중심으로 진행되었습니다. 기존 CoT 방법론들은 Reasoning을 수행하는 단계에서 토큰 단위로 이루어지기 때문에 답변을 생성하기 까지 중간의 Reasoning 단계에서 너무 많은 토큰이 사용되어 비용 측면에서의 문제점을 가지고 있었습니다. CoT가 가지는 추론 단계가 LLM의 복잡한 Task에 대한 생성 능력에 얼마나 큰 영향을 미치는지에 대해서는 이미 공공연하게 알려져 있는 사실이기 때문에 Chain을 구성하는 것이 매우 중요해졌는데, 이 과정에서 발생하는 막대한 비용을 감소시키기 위해 토큰 단위가 아닌 Representation을 통해 추론 과정을 거친다는 발상이 매우 흥미로웠습니다. 아직 이러한 추론 과정의 효율화에 대한 연구가 많이 이루어지지 않았다고 알고 있는데, 앞으로 LLM의 연구에 있어 해당 분야가 중요한 역할을 할 것이라는 생각이 들었습니다. 좋은 발표 해주셔서 감사합니다.


  • 2025-01-13 12:16

    금일 세미나는 “Training Large Language Models to Reason in a Continuous Latent Space” 논문을 바탕으로 진행되었습니다. 기존 연구들에서는 In-context learning을 통한 Reasoning을 유도하는 CoT는 복잡한 Task일수록 학습을 통해 성능이 증가할 수 있는 가능성을 보였으며, CoT 데이터를 활용하여 Reasoning을 내재화시킬 수 있다는 방법론을 제안하였습니다. 이번 제안 연구에서는 continuous reasoning을 통한 end-to-end implicit reasoning 학습 및 추론 프레임워크를 제안하였고, 그 결과로 기존의 implicit reasoning 및 explicit reasoning 방법론 대비 일부 우수한 성능을 보였습니다. 이에 대한 추가적인 분석을 진행한 결과, implicit reasoning은 효율적인 BFS 방식을 활용해 reasoning path를 탐색하며, continuous reasoning이 증가할수록 최단 경로 탐색이 가능해져 reasoning 없이도 정답을 생성할 수 있음을 확인하였습니다. 생소한 내용이지만 자세하게 설명해주셔서 이해가 수월했습니다. 좋은 발표 정말 감사드립니다.


  • 2025-01-13 21:40

    이번 세미나에서는 "Training Large Language Models to Reason in a Continuous Latent Space" 논문이 소개되었습니다. 이 연구는 대형 언어 모델(LLM)이 추론(reasoning) 작업을 더 잘 수행할 수 있도록, 연속적 잠재 공간(continuous latent space)에서의 학습을 도입하는 접근을 제시했습니다. 기존 언어 모델이 디스크리트 토큰 기반 추론에 제한되는 점을 극복하고, 더 유연하고 풍부한 추론 능력을 확보하고자 했습니다. 핵심은 LLM이 단순히 문맥에 따라 응답을 생성하는 것을 넘어, 복잡한 문제를 해결할 수 있는 잠재 공간에서의 추론 능력을 학습하도록 설계되었다는 점입니다. 연속적 표현 공간을 활용함으로써 모델은 기존 방법론 대비 더 효율적이고 일관성 있는 논리적 추론을 가능하게 했으며, 여러 벤치마크에서 이를 성공적으로 입증하였습니다. 관심 분야가 아니었기에 상당히 낯선 내용이었지만, 사전 지식 부터 친절히 설명해주셔서 쉽게 이해할 수 있었습니다. 감사합니다!


  • 2025-01-15 20:23

    이번 세미나에서는 효율적인 추론을 위한 방법론을 제시한 COCONUT 논문을 중심으로 진행되었습니다. COCONUT은 기존 Chain-of-Thought(CoT)의 모든 Reasoning Step을 언어화하는 비효율성을 개선하기 위해 Latent Space에서 추론을 수행하는 방식을 제안합니다. 실험 결과, 적은 토큰으로도 높은 성능을 유지하며, Explicit CoT 방식 대비 빠른 추론 속도를 보여주었습니다. 특히, GSM8K와 같은 데이터셋에서 높은 추론 성능을 입증하였습니다. 아직은 학습 과정에서 완전한 Parallelism을 구사하지 못하는 단계이기에 학습 시간이 오래 걸릴 것으로 생각할 수 있는 방법론이지만, 성능 향상을 위한 Decoding Step을 과격하게 늘리는 오늘날의 패러다임을 많이 바꿀 수 있는 후속 연구들이 나올만한 좋은 논문이었다고 생각합니다. 재밌는 논문 소개해주셔서 감사합니다.


  • 2025-01-16 13:44

    이번 세미나에서는 "A Unified Framework for Multimodal Contrastive Learning" 논문을 중심으로 멀티모달 학습의 효율성과 일반화를 동시에 달성할 수 있는 새로운 접근 방식에 대해 배울 수 있었습니다. 해당 연구는 다양한 모달리티(예: 이미지-텍스트, 오디오-텍스트 등) 간의 학습을 통합적으로 처리할 수 있는 프레임워크를 제안하며, 모달리티 간의 관계를 학습하기 위한 Contrastive Learning 방식을 효과적으로 활용한 점이 인상적이었습니다. 특히, 모달리티 간의 대칭성을 유지하면서도 각 모달의 특성을 잘 반영하는 통합적인 구조를 설계한 점에서 연구의 기여도가 크다고 느꼈습니다. 또한, 실험에서 다양한 데이터셋과 태스크(예: 이미지-텍스트 매칭, 멀티모달 분류)에서 뛰어난 성능을 보여줌으로써 제안 방법의 강력한 일반화 가능성을 입증한 점도 흥미로웠습니다. 좋은 발표 감사합니다.


  • 2025-01-17 16:51

    이번 세미나는 “Training Large Language Models to Reason in a Continuous Latent Space” 논문을 중심으로 진행되었습니다. 발표에서는 기존 CoT(Chain of Thought) 방식이 가진 한계, 즉 Reasoning 단계에서의 과도한 토큰 사용으로 인한 비효율성을 해결하고자 제안된 COCONUT 방법론이 소개되었습니다. COCONUT은 추론 과정을 Latent Space의 Representation으로 전환하여 효율성을 높이는 동시에 계산 비용을 줄이고, 더 빠르고 간결한 추론을 가능하게 합니다. 특히, 이 접근법은 단계적 추론이 필요한 복잡한 문제에서도 높은 성능을 유지하며, 기존의 Explicit CoT 방식 대비 추론 속도에서 강점을 보였다는 점이 인상적이었습니다. 발표 내용 중, 연속적 잠재 공간에서의 학습이 모델의 논리적 추론 능력을 어떻게 강화시키는지 구체적인 실험 결과를 통해 확인할 수 있어 흥미로웠으며 앞으로의 발전 가능성도 기대되는 좋은 향후 연구 분야였던 것 같습니다. 좋은 발표 감사합니다!


  • 2025-01-18 14:50

    이번 세미나에서는 “Training Large Language Models to Reason in a Continuous Latent Space”라는 논문이 소개되었습니다. 이 연구는 LLM의 추론 과정을 효율적으로 개선하기 위해 COCONUT이라는 새로운 프레임워크를 제안하였습니다. 기존 Chain of Thought(CoT) 방식은 추론의 각 단계를 명시적으로 토큰화하여 처리하므로, 계산 비용이 높고 복잡한 문제 해결에 비효율적이라는 한계가 있었습니다. COCONUT은 이러한 문제를 해결하기 위해, 추론 과정을 잠재 공간(Latent Space)에서 수행하여 불필요한 토큰 생성을 줄이면서도 높은 성능을 유지할 수 있도록 설계되었습니다. 특히, COCONUT은 Language 모드와 Latent 모드 간의 유연한 전환을 통해 문제의 복잡성에 따라 최적의 추론 경로를 선택할 수 있게 하였으며, 이는 추론 과정의 효율성과 연속성을 모두 강화하는 결과를 가져왔습니다. 실험 결과, GSM8K와 같은 데이터셋에서 높은 추론 성능과 계산 효율성을 입증하였으며, 기존 CoT 방식 대비 빠른 추론 속도를 보여주었습니다. 이러한 접근법은 현재 LLM의 추론 효율성을 개선하고, 복잡한 문제 해결을 위한 새로운 방향을 제시했다는 점에서 중요한 의의를 가진다고 생각합니다. 좋은 발표 감사합니다.


  • 2025-01-19 00:23

    이번 세미나에서는 "Training Large Language Models to Reason in a Continuous Latent Space"이라는 논문에 대한 소개를 중심으로 진행되었습니다. 이 논문은 연속적인 잠재 공간에서 추론을 수행할 수 있는 새로운 대규모 언어 모델 학습 프레임워크인 COCONUT을 제안합니다. 이 방법은 기존의 Chain of Thought (CoT) 접근법을 혁신적으로 개선하면서 명시적인 토큰 생성 과정을 간소화함으로써 계산 비용을 대폭 줄이는 연구입니다. COCONUT은 추론 과정을 토큰 대신 잠재적인 representation으로 처리하여 추론 단계를 대체합니다. 이는 Thought을 생성하여 추론 과정 중 발생하는 복잡한 문제를 효율적으로 해결할 수 있게 합니다. 학습 방법론에서는 각 추론 단계를 점차 생략함으로써 모델이 더욱 간결하고 효과적인 추론을 내재화할 수 있도록 합니다. 이 프레임워크는 다양한 추론 시나리오에서 모델의 일반화 능력을 향상시키며, 특히 복잡한 추론을 필요로 하는 과제에서 성능 개선이 가능함을 보여줍니다. 이번 세미나를 통해 Reasoning 분야의 향후 방향에 대해 확인할 수 있던 의미있는 시간이었습니다. 좋은 발표 준비해주셔서 감사합니다.


  • 2025-01-23 12:07

    이번 세미나에서는 “Training Large Language Models to Reason in a Continuous Latent Space” 논문을 중심으로, 대규모 언어 모델의 추론 과정을 효율적으로 개선하기 위한 새로운 프레임워크인 COCONUT을 소개하였습니다. 기존의 Chain of Thought(CoT) 방식은 각 추론 단계를 명시적으로 토큰화하여 처리함으로써 높은 계산 비용과 복잡한 문제 해결 시 비효율적인 면이 있었습니다. 반면, COCONUT은 추론 과정을 잠재 공간에서 수행하여 불필요한 토큰 생성을 줄이고, Language 모드와 Latent 모드 간의 유연한 전환을 통해 문제의 복잡성에 따라 최적의 추론 경로를 선택할 수 있도록 설계되었습니다. 이를 통해 모델은 높은 추론 성능을 유지하면서도 계산 효율성을 크게 향상시킬 수 있었습니다. 특히 GSM8K와 같은 데이터셋에서 기존 CoT 방식 대비 빠른 추론 속도와 우수한 성능을 입증한 점이 인상적이었으며, 이러한 접근법이 향후 LLM 연구에 중요한 역할을 할 것이라는 점에서 큰 의의를 가진다고 생각됩니다. 좋은 발표 감사합니다.


  • 2025-01-28 22:54

    이번 세미나는 LLM에서 많이 활용되는 Chain of Thoughts 방식에서 가장 중요한 역할을 하는 reasoning path을 효과적으로 다룰 수 있는 방법론을 제안한 연구가 소개되었습니다. 정확히는 reasoning path를 latent space상의 representation을 이용해서 활용 및 다루고 있음을 제안한 방법론입니다. 이를 continuous thought이라고 명명하였는데, 말 그대로 LLM안에 reasoning 부분을 내재화 하는 것입니다. 실질적인 학습 방식은 각 스텝별로 last hidden states가 입력되고, 출력된 representation이 다시 입력되는 방식입니다. 여러 stage에 거쳐서 기존의 reasoning path에 해당하는 텍스트를 대체하면서 진행됩니다. 프롬프트 상에서 ‘step’이라고 표현되는 것에 따라 stage의 수가 정해지게 되는 것입니다. 이에 대하여 continuous thought을 지식 그래프의 노드로 나타내어 그래프로 형성한 모습을 정성평가한 방식이 합리적으로 보였으며, 실제 평가 결과를 통해서도 해당 토큰이 각 step에 맞는 reasoning이 학습된 점이 나타났습니다. 굉장히 흥미로운 아이디어 입니다. 가령, out-of-domain 상황에서의 성능이 어떨지도 궁금해집니다. OOD 상황에서는 확실히 text로 표현하였을 때가 더욱 유리할 것이라 예상되는데, 이 부분에 대해서도 함께 살펴보면 좋을듯 합니다. 재미있는 주제 준비해주셔서 감사합니다.


전체 501
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 10287
관리자 2020.03.12 0 10287
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 8900
관리자 2020.03.12 0 8900
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 10014
관리자 2020.03.12 0 10014
498
[Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables
Sunghun Lim | 2025.04.24 | 추천 0 | 조회 18
Sunghun Lim 2025.04.24 0 18
497
[Paper Review] Imputation-based Time-Series Anomaly Detection with Conditional Weight-Incremental Diffusion Models (3)
Suyeon Shin | 2025.04.21 | 추천 0 | 조회 41
Suyeon Shin 2025.04.21 0 41
496
[Paper Review] Revisiting Multimodal Fusion for 3D Anomaly Detection from an Architectural Perspective (7)
Woongchan Nam | 2025.04.16 | 추천 0 | 조회 107
Woongchan Nam 2025.04.16 0 107
495
[Paper Review] Your Large Vision-Language Model Only Needs A Few Attention Heads For Visual Grounding (9)
Kiyoon Jeong | 2025.04.16 | 추천 0 | 조회 199
Kiyoon Jeong 2025.04.16 0 199
494
[Paper Review] Reasoning over Time Series with LLMs (13)
Hyeongwon Kang | 2025.04.09 | 추천 0 | 조회 281
Hyeongwon Kang 2025.04.09 0 281
493
[Paper Review] Accurate predictions on small data with a tabular foundation model (16)
Jaehyuk Heo | 2025.04.02 | 추천 0 | 조회 271
Jaehyuk Heo 2025.04.02 0 271
492
[Paper Review] Reasoning and Reinforcement Learning for LLM (15)
Jaehee Kim | 2025.04.02 | 추천 0 | 조회 268
Jaehee Kim 2025.04.02 0 268
491
[Paper Review] LLM based Recommender Systems : EAGER-LLM (19)
Jungho Lee | 2025.04.02 | 추천 0 | 조회 251
Jungho Lee 2025.04.02 0 251
490
[Paper Review] Data-driven discovery of coordinates and governing equations (18)
Hankyeol Kim | 2025.03.25 | 추천 0 | 조회 242
Hankyeol Kim 2025.03.25 0 242
489
[Paper Review] DUET: Dual Clustering Enhanced Multivariate Time Series Forecasting (15)
Sieon Park | 2025.03.19 | 추천 0 | 조회 352
Sieon Park 2025.03.19 0 352

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 허재혁 : jaehyuk.heo@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호