Topic
Overview
발표자료 및 발표영상
참고문헌
번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 10351
|
관리자 | 2020.03.12 | 0 | 10351 |
공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 8966
|
관리자 | 2020.03.12 | 0 | 8966 |
공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 10070
|
관리자 | 2020.03.12 | 0 | 10070 |
499 |
[Paper Review]SLMREC: Distilling Large Language Models Into Small For Sequential Recommendation (1)
Doyoon Kim
|
2025.05.01
|
추천 0
|
조회 27
|
Doyoon Kim | 2025.05.01 | 0 | 27 |
498 |
[Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables (12)
Sunghun Lim
|
2025.04.24
|
추천 0
|
조회 123
|
Sunghun Lim | 2025.04.24 | 0 | 123 |
497 |
[Paper Review] Imputation-based Time-Series Anomaly Detection with Conditional Weight-Incremental Diffusion Models (12)
Suyeon Shin
|
2025.04.21
|
추천 0
|
조회 116
|
Suyeon Shin | 2025.04.21 | 0 | 116 |
496 |
[Paper Review] Revisiting Multimodal Fusion for 3D Anomaly Detection from an Architectural Perspective (14)
Woongchan Nam
|
2025.04.16
|
추천 0
|
조회 159
|
Woongchan Nam | 2025.04.16 | 0 | 159 |
495 |
[Paper Review] Your Large Vision-Language Model Only Needs A Few Attention Heads For Visual Grounding (16)
Kiyoon Jeong
|
2025.04.16
|
추천 0
|
조회 296
|
Kiyoon Jeong | 2025.04.16 | 0 | 296 |
494 |
[Paper Review] Reasoning over Time Series with LLMs (15)
Hyeongwon Kang
|
2025.04.09
|
추천 0
|
조회 334
|
Hyeongwon Kang | 2025.04.09 | 0 | 334 |
493 |
[Paper Review] Accurate predictions on small data with a tabular foundation model (16)
Jaehyuk Heo
|
2025.04.02
|
추천 0
|
조회 323
|
Jaehyuk Heo | 2025.04.02 | 0 | 323 |
492 |
[Paper Review] Reasoning and Reinforcement Learning for LLM (15)
Jaehee Kim
|
2025.04.02
|
추천 0
|
조회 325
|
Jaehee Kim | 2025.04.02 | 0 | 325 |
491 |
[Paper Review] LLM based Recommender Systems : EAGER-LLM (19)
Jungho Lee
|
2025.04.02
|
추천 0
|
조회 273
|
Jungho Lee | 2025.04.02 | 0 | 273 |
490 |
[Paper Review] Data-driven discovery of coordinates and governing equations (18)
Hankyeol Kim
|
2025.03.25
|
추천 0
|
조회 253
|
Hankyeol Kim | 2025.03.25 | 0 | 253 |
이번 발표는 "Reasoning over Time Series with LLMs"을 주제로 진행 되었습니다. LLM의 시계열 추론 능력에 대한 현실적인 한계와 이를 극복하기 위한 시도들을 체계적으로 정리해준 점에서 매우 유익했습니다. GPT-4를 포함한 최신 LLM들이 언어 기반 추론에는 강점을 보이지만, 시계열 데이터처럼 구조화된 연속적 정보에 대해선 여전히 제약이 있다는 점을 실증적으로 보여준 것은 의미가 컸습니다. 원인 추론, 질문 응답, 문맥 기반 예측이라는 세 가지 과제를 중심으로 한 평가 설계도 직관적이면서도 핵심을 잘 짚었다고 느껴졌습니다. 특히 이러한 한계를 극복하기 위한 최근 연구들을 통해 앞으로의 연구 방향성과 실제 적용 가능성을 함께 모색한 점이 인상 깊었습니다. 시계열 추론에서 LLM이 어떤 한계를 가지며, 또 그 돌파구가 어디 있는 지를 고민하게 만든 발표였습니다. 좋은 발표 진행해주셔서 감사합니다.
이번 세미나에서는 “Reasoning over Time Series with LLMs”라는 주제로, 시계열 데이터에 대한 언어 모델의 추론 능력을 분석한 최근 연구들을 중심으로 발표가 진행되었습니다. 발표는 시계열 분석이 단순한 수치 예측이나 이상 탐지를 넘어, 문맥과 시간의 흐름을 논리적으로 해석할 수 있는 능력으로 확장되고 있다는 점에서 출발했습니다. 이를 바탕으로, GPT-4를 비롯한 주요 언어 모델들이 다양한 시계열 추론 과제에서 실제로 얼마나 효과적으로 작동하는지를 평가한 연구 내용을 중심으로 발표가 전개되었습니다.
특히 발표에서는 시계열에 대한 추론을 세 가지 과제로 나누어 살펴보았는데, 각각은 원인 추론, 질문 응답 문맥 기반 예측으로 구성되었습니다. 이 중 원인 추론에서는 시계열의 생성 원인을 유추하는 문제, 질문 응답에서는 시계열의 변화를 기반으로 한 질문에 답하는 문제, 문맥 기반 예측에서는 주어진 설명과 시계열 일부를 바탕으로 미래 값을 예측하는 문제로 구성되어 있어 시계열에 대한 다양한 추론 능력을 전반적으로 확인할 수 있었습니다.
발표를 통해 현재 대부분의 언어 모델은 시계열 데이터를 정량적 수치로는 받아들이지만, 그 안에 담긴 맥락적 흐름이나 의미를 해석하는 데에는 여전히 한계가 있다는 점이 드러났습니다. 특히 문제 생성에 사용된 모델과 평가 대상 모델이 겹칠 경우, 실제 추론 능력이 아닌 문제 생성 당시의 기억에 의존해 답을 맞히는 경향도 관찰되었다는 점이 흥미로웠습니다. 좋은 발표 감사합니다!
이번 세미나는 LLM이 시계열 데이터를 어떻게 추론할 수 있을지에 대한 가능성과 한계를 살펴보는 발표였고, 특히 GPT-4를 포함한 모델들이 Etiological Reasoning, Question Answering, Context-Aided Forecasting 세 가지 과제를 얼마나 잘 수행할 수 있는지를 실험한 연구가 소개되었습니다. 흥미로웠던 점은 시계열 데이터를 수치나 패턴 그 자체로만 보기보다, 배경 정보나 문맥을 고려해 해석하는 방향으로 접근하고자 했던 시도였는데, 결과적으로는 LLM들이 여전히 이런 추론에는 약한 모습을 보였다는 점에서 기술적으로 갈 길이 멀다는 생각이 들었습니다. 특히 모델이 자신이 생성에 참여한 데이터에 대해 상대적으로 더 나은 성능을 보였다는 점은, 평가의 신뢰성이나 일반화 가능성 측면에서 고민이 필요해 보였습니다. 그럼에도 불구하고, 이를 보완하려는 최근의 다양한 연구들도 같이 소개되어서 앞으로의 발전 가능성은 충분히 기대할 수 있었고, 발표 내용도 복잡한 주제를 잘 정리해줘서 흥미롭게 들을 수 있었습니다.
이번 세미나는 기존 시계열 분야에서 정형화된 수치에 기반해 단순한 수치 예측이나 패턴을 파악하는 데에서 그치지 않고, LLM을 활용해 인간처럼 논리적으로 시간의 흐름을 이해하고 해석하는 Time Series Reasoning 분야에 대해 연구한 “Language Models Still Struggle to Zero-shot Reason about Time Series”라는 논문에 대한 발표를 중심으로 진행되었습니다. 해당 논문에서는 Time Series Reasoning을 위해 Etiological Reasoning, Question Answering, Context-Aided Forecasting에 해당하는 3가지 과업에 대한 실험을 진행하였습니다. 이 중 Context-Aided Forecasting과 같은 과업이 LLM을 시계열 분야에 접목시킬 때의 기존 시계열 기반 모델들과의 차이점을 가져올 수 있다는 생각이 들었습니다. 실제 시계열 예측을 수행하는 과정에서 주어진 정형적인 값 혹은 시각적으로 나타나는 패턴 만으로 예측을 하는 것도 충분히 좋지만, 해당 데이터가 생성된 배경과 같은 Context를 가지고 예측을 수행했을 때 기존 예측 결과와는 또다른 의미를 가진 결과를 생성해낼 수 있겠다는 생각이 들었습니다. 그러나 해당 논문에서의 실험 결과를 보면 알 수 있듯이, 아직은 LLM이 주어진 Context에서 중요한 정보를 가지고 예측에 도움을 줄 수 있는 능력은 가지고 있지 못하기 때문에 앞으로 해당 분야에 대해 추가적인 연구가 필요할 것이라는 생각이 들었습니다. 좋은 발표 해주셔서 감사합니다.
자연어나 시각 정보에 비해 일반화가 어려운 시계열 데이터에 LLM을 적용할 수 있을까 하는 공통된 의문으로부터 많은 연구들이 창발하고 있는 듯합니다. 시계열에 LLM을 어떻게든 활용하기 위해 숫자 정보를 자연어로 대체하거나 프롬프트로 극복하려는 시도들이 어쩔 때는 다소 억지스럽게 느껴질 때도 있었던 것에 비해, 이번에 소개해 주신 논문은 LLM의 자연어 처리 능력에 기반하여 시계열 데이터에 대한 reasoning이 가능할 지에 대한 근본적 물음에 대한 탐구였기에 직관적으로는 보다 자연스럽게 느껴진 접근이었던 듯합니다. LLM이 시계열 데이터의 특성을 인간 전문가와 같은 수준으로 설명할 수 있게 되더라도 당장은 data-driven 방법론으로서의 장점은 약할 수 있겠으나, 비교적 단순한 데이터에 대한 자동화 모듈로서는 가치가 있을 듯하다고 생각했습니다. 그러나 연구에서 학습과 테스트에 사용한 대부분의 시계열 데이터가 LLM으로부터 만들어진 것이기에 이미 학습했던 정보들이 많은 영향을 주었을 가능성이 크고, 따라서 그에 대한 inference를 수행하는 것 역시 bias가 어느 정도 있을 것이라 생각되어 유의미한 성능 측정 방식인 지에 대해서는 의문이 남습니다. 더욱이 그럼에도 추론 성능이 좋지 못했던 것을 보면 LLM의 시계열 분석 능력은 아직 매우 부족하며 전망도 부정적임을 시사하는 것일 수도 있겠으나, 오히려 이후의 연구들에서 반전이 만들어지기를 기대하게 됩니다. 또한 말씀하신 것처럼 단순히 높은 성능에 집착하는 것이 아니라, 실험 결과에 대한 담백한 판단을 제공하는 것이 좋았다고 생각합니다. 좋은 발표 감사합니다!
이번 세미나에서는 LLM이 시계열 데이터에 대해 얼마나 효과적으로 추론할 수 있는지 소개해 주셨습니다. 기존의 LLM이 언어 기반의 패턴 인식에는 능숙하지만, 시계열이라는 연속적이고 수치 기반의 맥락을 논리적으로 해석하고 응용하는 데에는 여전히 어려움을 겪고 있다는 사실이 인상 깊었습니다. 특히 ‘Language Models Still Struggle to Zero-shot Reason about Time Series’ 논문에서는 원인 추론, 질문 응답, 문맥 기반 예측의 세 가지 과제를 통해 GPT-4조차 랜덤 수준의 정확도를 보였다는 결과가 놀라웠고, 이는 단순 텍스트 입력만으로는 시계열의 복잡한 패턴을 온전히 이해하기 어렵다는 점을 보여주었다고 생각합니다. 이어지는 연구들인 Towards Time-Series Reasoning with LLMs, ChatTS, TempoGPT, Time-MQA는 다양한 Fine-tuning 전략과 Synthetic Data Alignment, Temporal Quantization, Multi-task QA 접근을 시도하며 LLM의 시계열 Reasoning 능력을 점진적으로 끌어올리려는 시도를 했습니다. 특히 ChatTS와 TempoGPT는 데이터 정렬과 멀티모달 정보의 정밀한 통합이 모델의 이해력을 향상시킬 수 있음을 보여주었고, Time-MQA는 QA 중심의 학습 방식이 시계열 해석력 강화에 기여할 수 있다는 가능성을 시사했습니다. 이러한 연구들이 공통적으로 지적하는 바는 “시계열은 시간 속에서 전개되는 이야기”라는 점이며, 이를 이해하려면 단순히 데이터를 나열하는 수준을 넘어서 맥락과 인과를 파악할 수 있는 추론 구조가 필요하다는 것이었습니다. 결국 이러한 연구들은 시계열 추론이라는 복잡한 영역에서 LLM이 어디까지 가능한지를 확인하는 첫걸음으로서 중요한 의의를 가진다고 생각합니다. 흥미로운 주제로 좋은 발표해 주셔서 감사합니다.
이번 세미나에서는 Reasoning over Time Series with LLMs와 관련된 방법론을 제시한 발표를 중심으로 진행되었습니다. 이 발표는 GPT-4를 포함한 최신 대형 언어 모델들이 시계열 데이터에 대해 진정한 의미의 추론을 수행할 수 있는지를 세 가지 과제(원인 추론, 질의응답, 문맥 기반 예측)를 통해 분석한 연구를 기반으로 구성되었습니다. 실험 결과 대부분의 LLM은 시계열 reasoning task에서 랜덤 수준에 가까운 성능을 보였으며, 특히 GPT-4조차도 시계열 없이도 정답을 유추할 수 있는 문제에 의존하거나, 데이터 생성 시 사용된 패턴을 기억해 답을 맞히는 경향을 보였습니다. 이를 보완하기 위한 연구 흐름으로는 Chain-of-Thought 기반 학습, synthetic data alignment, quantized embedding 등 다양한 접근이 소개되었으며, 시계열 reasoning의 개선 가능성과 과제에 대한 학문적, 실용적 의의가 강조되었습니다. 발표는 시계열 데이터 해석에 있어 LLM의 한계를 드러내는 동시에, 이 영역의 탐색이 human-level AI에 다가가기 위한 핵심적인 도전임을 시사하였습니다.
이번 세미나를 통해 시계열 데이터에 대한 LLM의 한계를 보다 명확하게 이해할 수 있었습니다. 기존에는 LLM이 거의 모든 문제를 잘 풀 수 있을 거라는 막연한 기대가 있었는데, 실제로는 시간의 흐름을 기반으로 한 추론, 즉 원인 찾기/질문 응답/문맥 기반 예측같은 과제에서는 GPT-4조차도 무작위 수준의 성능을 보였다는 점이 꽤 충격적이었습니다.
특히 인상 깊었던 건, 단순히 결과만 보여주는 게 아니라 왜 이런 성능이 나오는지, 어떤 식으로 데이터를 구성하고 평가했는지를 매우 체계적으로 분석하셨다는 점입니다. 덕분에 LLM이 시계열을 진짜로 ‘이해’하지는 못하고, 학습 중 봤던 패턴이나 구조에 의존하고 있다는 점을 더 잘 알 수 있었습니다.
시계열은 결국 시간이라는 축을 따라 의미가 변하는 데이터이고, 이를 해석하려면 단순한 텍스트 이해를 넘어선 ‘맥락을 따라가는 사고력’이 필요하다는 발표자 분의 메시지가 강하게 와닿았습니다. 지금은 부족하지만, 이런 연구들이 쌓여야 결국 인간 수준의 AI로 나아갈 수 있겠다는 생각이 들었습니다. 좋은 발표 해주셔서 감사합니다!
금일 세미나는 시계열 도메인에서의 LLM reasoning 능력을 확인하고자 하는 연구인 "Reasoning over Time Series with LLMs"를 중심으로 진행되었습니다. 해당 논문에서 이야기하는 reasoning 이란 텍스트로 구성된 상황 묘사와 시계열 데이터가 존재할 때, 모델이 해당 시계열 데이터를 이해하고 적절한 설명을 선택할 수 있는지에 대한 Multiple Choice QA 태스크 수행 능력을 의미합니다. 이를 측정하기 위해 LLM을 기반으로 시계열 데이터와 텍스트를 모두 생성하고 평가 데이터를 구축하였으며, 다양한 모델들에 대한 성능을 측정하였습니다. 그 결과를 살펴모년 모델들은 아직 사람 수준까지 도달하지는 못하는 모습을 보이며 추가적인 연구들이 더 필요함을 보였습니다. 하지만 개인적으로는 생성 데이터 예시를 보았을 때, 실제로 텍스트와 시계열 특성이 매칭이 잘되지 않았을수도 있겠다는 생각이 들어 의문이 생겼습니다. 하지만 해당 방식을 통한 성능 측정부터 시작해 앞으로 LLM이 시계열 모달리티에 대한 능력을 가지게 된다면 더욱 다양한 활용이 가능할 것이라는 점에서 흥미로운 논문이었던 것 같습니다. 좋은 발표 감사합니다.
이번 세미나에서는 LLM이 시계열 데이터를 논리적으로 해석할 수 있는지를 분석한 논문 “Language Models Still Struggle to Zero-shot Reason about Time Series”를 중심으로 발표가 진행되었습니다. 주요 과업은 원인 추론, 질의응답, 문맥 기반 예측 세 가지였으며, GPT-4조차 무작위 수준의 성능을 보여 시계열 reasoning에서의 한계를 확인할 수 있었습니다. 특히 Context-Aided Forecasting 과업은 기존 시계열 모델과 LLM 기반 접근 방식 간 차이를 명확히 보여주었고, 시계열의 생성 배경을 고려한 추론의 필요성을 시사했습니다. 그러나 현재 LLM은 시계열 맥락에서 유의미한 정보를 활용하지 못하고 있어 성능 개선을 위한 추가 연구가 필요해 보입니다. 정형 데이터를 넘어서 사고의 흐름을 이해하려는 시도 자체가 흥미로웠고, 추후 연구의 발전 가능성을 기대하게 하는 발표였습니다. 좋은 발표 감사합니다.
이 논문은 LLM이 시계열 데이터에서 시간의 흐름과 인과관계를 논리적으로 추론하는 데 어려움을 겪는다는 점을 세 가지 과제를 통해 실증적으로 보여줍니다. 특히 GPT-4조차 낮은 성능을 보였다는 결과는 현재의 LLM이 시계열 맥락을 충분히 이해하지 못함을 시사합니다. 그럼에도 ChatTS, TempoGPT, Time-MQA 등 후속 연구들은 정렬, 정량화, 멀티태스크 학습 등을 통해 개선 가능성을 보여주며, 시계열 데이터를 ‘시간의 이야기’로 해석하는 방향으로의 진전을 기대하게 합니다. LLM의 시계열 추론 한계를 짚고, 향후 연구 방향을 제시한 점에서 의미 있는 출발점이 되는 연구였습니다.
오늘 세미나에서는 ‘Language Models Still Struggle to Zero‑shot Reason about Time Series’ 논문을 중심으로, LLM이 시간의 흐름을 인간처럼 이해하고 추론할 수 있는지를 탐구한 Time Series Reasoning 연구를 살펴보았습니다. 발표를 통해 원인 추론, 질문 응답, 문맥 기반 예측의 세 과제에서 GPT‑4조차 무작위 수준에 머물렀다는 점이 특히 인상적이었습니다. 그중에서도 문맥 기반 예측 실험은 시계열 뒤에 숨은 배경 정보를 모델이 얼마나 활용하는지가 핵심이라는 사실을 보여주었지만, 실제로는 LLM이 이러한 문맥을 거의 활용하지 못한다는 한계를 드러냈습니다. 이는 숫자열을 자연어로만 변환해서는 시계열의 순차성과 인과를 이해하도록 만들 수 없음을 시사하며, 향후 구조적 시간 인코딩, 시계열 전처리 모듈과 LLM의 하이브리드 파이프라인, 인과추론 제약 결합 등이 필요한 연구 방향으로 보입니다. ChatTS, TempoGPT, Time‑MQA 등 후속 연구가 데이터 정렬과 멀티태스크 학습으로 부분적 개선을 보였지만, 여전히 시간이라는 이야기 구조를 완전히 해석하기에는 부족함이 있다는 점도 확인되었습니다. 이번 연구는 LLM 만능론에 경각심을 주며, 시계열이라는 고유 모달리티에 특화된 추론 구조를 재설계해야 한다는 과제를 분명히 제시한 의미 있는 출발점이었다고 생각합니다. 좋은 발표 감사합니다.
이번 세미나에서는 "Language Models Still Struggle to Zero-shot Reason about Time Series” 논문을 소개해주셨습니다. 본 연구는 LLM이 기존 언어적 패턴 인식에서는 뛰어난 성능을 보였으나, 시계열 데이터처럼 수치적이고 연속적인 맥락을 논리적으로 이해하고 해석하는 데 여전히 한계를 가지고 있음을 지적하였습니다. 특히 Etiological Reasoning, Question Answering, Context-Aided Forecasting의 세 가지 과업에 대한 실험을 통해 GPT-4와 같은 최신 모델마저도 Zero-shot 설정에서는 랜덤 수준의 정확도밖에 달성하지 못했다는 결과가 매우 인상 깊었습니다. Context-Aided Forecasting과 같은 과업은 시계열 데이터를 수치적 예측 이상의 맥락적 이해로 접근할 수 있는 잠재력을 보여줄 수 있으나, 본 연구의 실험 결과는 LLM이 아직 주어진 Context에서 효과적으로 중요한 정보를 추출하여 활용하는 능력이 부족하다는 점을 명확히 제시하고 있습니다. 이에 따라 향후 시계열 추론 성능 향상을 위한 Fine-tuning 전략이나 Synthetic Data Alignment과 같은 추가적 연구의 필요성을 느끼게 해주었습니다. 좋은 발표 감사합니다.
금일 세미나는 "Reasoning over Time Series with LLMs"를 주제로 진행되었습니다. 기존의 시계열 데이터 연구는 주로 예측이나 이상탐지 등 시계열에 적합하게 정량적인 값을 도출하는 과업에 집중되어 있었지만, 주어진 시계열이 무엇을 의미하는지에 대한 추론 연구는 상대적으로 미흡했습니다. 그러나 이러한 시계열 추론은 복잡한 동적 시스템에서 해석력 있는 결론을 도출할 수 있다는 점에서 반드시 연구되어야 하는 분야 중 하나입니다. 최근에는 LLM이 보여주는 강력한 추론 능력을 바탕으로 시계열 데이터에 대한 새로운 접근들이 시도되고 있으며, 이번 발표에서는 시계열에 대한 추론 능력을 평가할 수 있는 다양한 방법이 제안되었습니다. 구체적으로는 주어진 시계열이 어떤 원인이나 시나리오에 의해 생성되었는지를 추론하는 Etiological Reasoning, 시계열의 패턴이나 변화, 이벤트를 기반으로 질문에 답변하는 Question Answering, 그리고 과거 시계열 구간과 관련 텍스트 정보를 바탕으로 미래를 예측하는 Context-Aided Forecasting으로 구성되어 있었습니다. 다만, 제안된 평가 방법을 통해 수행한 실험 결과를 보면, LLM은 아직 시계열에 대해 진정한 의미의 추론을 수행하지는 못하고 있다는 결론에 도달하고 있습니다. 실제로 LLM의 학습 방식이나 사용되는 데이터의 특성을 고려할 때 시계열 추론은 쉽지 않은 과제라는 생각이 들지만, 시계열 분야에서도 다양한 방식으로 foundation model이 연구되고 있는 만큼 향후 발전 가능성은 충분히 열려 있다고 느꼈습니다. 생소한 주제임에도 불구하고 흥미롭고 인사이트 있는 발표를 들을 수 있었습니다. 좋은 발표 정말 감사드립니다.
이번 세미나에서는 "Reasoning over Time Series with LLMs"을 주제로 발표해주셨습니다. LLM이 시계열 추론이 가능할까라는 의문을 가지고 있었는데 본 발표에서 Etiological Reasoning, Question Answering, Context-Aided Forecasting 등 세 가지 방법을 통해 정량적으로 추론능력을 평가할 있는 방법을 보여주신점이 인상깊었습니다. 또한 기존의 zero-shot 추론에서 GPT-4조차도 무작위에 가까운 성능을 보였다는 점은, 시계열 데이터가 단순한 수치 예측을 넘어서 시간 흐름 속에서의 의미 해석과 맥락적 사고를 필요로 한다는 것을 다시금 확인하게 해주었습니다. LLM의 패턴 기반 처리 방식이 시간적 논리 구조를 제대로 포착하지 못한다는 한계는, 앞으로 멀티모달 인코딩, 구조적 피처 정렬, 또는 외부 메모리 기반 reasoning과 같은 보완적 접근이 필요하다는 점을 시사한다고 생각합니다. 좋은 발표 감사합니다!