| 번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
| 공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 15602
|
관리자 | 2020.03.12 | 0 | 15602 |
| 공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 14326
|
관리자 | 2020.03.12 | 0 | 14326 |
| 공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 15316
|
관리자 | 2020.03.12 | 0 | 15316 |
| 553 |
[Paper Review] Why CLIP fails at Dense Prediction Task? (3)
Jinwoo Jang
|
2026.04.06
|
추천 0
|
조회 112
|
Jinwoo Jang | 2026.04.06 | 0 | 112 |
| 552 |
[Paper Review] Dynamic Large Concept Models (8)
Jaeyong Ko
|
2026.03.30
|
추천 0
|
조회 161
|
Jaeyong Ko | 2026.03.30 | 0 | 161 |
| 551 |
[Paper Review] Programming Refusal with Conditional Activation Steering (15)
Sunmin Kim
|
2026.03.10
|
추천 0
|
조회 437
|
Sunmin Kim | 2026.03.10 | 0 | 437 |
| 550 |
[Paper Review] Towards a General Time Series Anomaly Detector with Adaptive Bottlenecks and Dual Adversarial Decoders (9)
Sunghun Lim
|
2026.03.01
|
추천 0
|
조회 348
|
Sunghun Lim | 2026.03.01 | 0 | 348 |
| 549 |
[Paper Review] Rethinking the Power of Timestamps for Robust Time Series Forecasting: A Global-Local Fusion Perspective (9)
Suyeon Shin
|
2026.02.25
|
추천 0
|
조회 259
|
Suyeon Shin | 2026.02.25 | 0 | 259 |
| 548 |
[Paper Review] Recent Research Trends Foundation Model for Visual Anomaly Detection (10)
Jaehyuk Heo
|
2026.02.12
|
추천 0
|
조회 516
|
Jaehyuk Heo | 2026.02.12 | 0 | 516 |
| 547 |
[Paper Review] Vision-based and Multimodal Approaches for Time Series Analysis (9)
Hyeongwon Kang
|
2026.02.10
|
추천 0
|
조회 516
|
Hyeongwon Kang | 2026.02.10 | 0 | 516 |
| 546 |
[Paper Review] Introduction to Neural Operator (10)
Hankyeol Kim
|
2026.02.03
|
추천 0
|
조회 622
|
Hankyeol Kim | 2026.02.03 | 0 | 622 |
| 545 |
[Paper Review] Enhancing Time Series Forecasting through Selective Representation Spaces: A Patch Perspective (13)
Sieon Park
|
2026.01.29
|
추천 0
|
조회 621
|
Sieon Park | 2026.01.29 | 0 | 621 |
| 544 |
[Paper Review] ELFS: Label-Free Coreset Selection with Proxy Training Dynamics (13)
Subeen Cha
|
2026.01.28
|
추천 0
|
조회 405
|
Subeen Cha | 2026.01.28 | 0 | 405 |
금일 세미나 시간에는 “PEER: A Collaborative Language Model” 이라는 주제의 논문을 소개해주었습니다. 해당 논문에서는 기존 LM에서의 주 text 생성방식이 left to right의 single pass 방식으로 전형적인 사람의 그것과 달리하기 때문에 modification, refine이 불가능하다는 점과 같은 다양한 어려움이 존재하기 때문에, 이 문제를 극복하고자 “edit history”를 활용하여 PEER (Plan, Edit, Explain, Repeat)의 프로세스를 가지는 LM을 제안하였습니다. 무엇보다도, 실제로 이 후기를 작성하는 과정에서도 저자가 주장하는 writing process가 작용하는 기분이 들어, 많은 공감을 가질 수 있었습니다. 해당 논문에서 특이점은 문장을 생성하는 과정에서 예를들면 기존 Wikipedia 문서에서만 제공되는 문서의 edit history를 그렇지 못한 다양한 문서들에서도 활용하기 위해서 infilling task로 정의하여 누락된 정보를 채운 synthetic data를 생성하는 부분으로, peer-Undo과정에서는 기존 plain text에서 인위적으로 backward edit을 통해 역으로 edit history를 생성하는 부분이 흥미로웠습니다. 추가적으로, 인간의 문장 작성방식을 모사한 “PEER” 라는 프로세스에 대해서는 적극 공감할 수 있었지만, 해당 논문에서 제안하는 방법론이 논문의 부제인 "Collaborative Language Model"에 부합하는 ‘collaborative한 language 모델인가?’ 에 대해서는 좀 더 고민해 볼 필요가 있다고 생각하였습니다. 마지막으로, 좋지 않은 컨디션임에도 불구하고 흥미로운 논문으로 세미나를 채워준 이유경 박사과정에게 감사의 인사 전합니다.
이번 세미나에서는 PEER: A Collaborative Language Model에 대해 소개해주셨습니다. PEER는 text를 작성하는 것에 있어, 인간의 전형적인 writing 진행 과정과 language model에게 적용되는 과정이 다른 것에서 오는 문제점을 언급하며, 이를 개선하고자 하는 모델이었습니다. PEER는 plan, edit, explain, repeat의 약자로, 어떠한 수정을 할 지 계획하고, 실제 수정하며, 왜 그러한 수정을 했는가 이유를 설명하고, 이 과정을 반복합니다. 해당 모델의 핵심은 Edit history를 기반으로 모델을 학습한다는 부분입니다. 그러나 대부분의 실제 데이터는 edit history를 갖지 않으므로, 추가적인 infilling task를 통해 해당 부분을 생성하여 이를 보완할 수 있음을 제안하고 있습니다. infilling task는 edit, undo, explain, document 4가지이며, 이를 통해 최종적인 synthetic data를 구성하게 됩니다. 사람이 글을 쓰는 과정에 대해 특별히 생각해 보지 않았던 만큼, LM의 text를 생성하는 과정과 사람의 writing 과정을 함께 비교하며 새로우면서도 납득 가능한 아이디어를 전개하였다는 점이 특히 인상깊었습니다. 이번 세미나는 온라인임에도 불구하고 처음부터 끝까지 집중을 놓지 않을 수 있도록 해주셨던 것 같습니다. 오프라인이 아닌 것이 정말 아쉬운 발표였습니다. 발표를 들으며, 좋은 발표란 무엇인가를 경험해볼 수 있었고 무엇보다 어떠한 태도로 발표를 진행해야 하는가에 대해 고민해볼 수 있었던 것 같습니다. 다소 복잡할 수 있었던 내용이었으나, 발표자님께서 차근차근 말씀해주시어 이해할 수 있었습니다. 바쁘신 와중에도 좋은 발표 준비해주셔서 정말 감사드립니다.
이번 세미나에서는 ICLR 2023에 억셉된 PEER: A Collaborative Language Model 논문을 다루어 주셨습니다. 해당 논문에서 소개하고 있는 모델 PEER는 plan, edit, explain, repeat의 약자를 따서 만들었으며, edit history를 기반으로 language model을 학습하며 4가지 스텝을 거치고 있는 collaborative language model(LM)입니다. 본 모델을 이용하여 다양한 subtask를 수행할 수 있는데, 해당 task를 수행할 때 앞서 언급한 4가지 단계(plan, edit, explain, repeat)를 거치게 됩니다. 첫번째 단계에서는 input text에 대한 수정 작업을 진행하고, edit에서는 plan에서 생성된 instruction을 반영하고 text를 수정하며, explain 단계에서는 instruction과 reference를 통해 PEER 과정에서는 plan과 document를 기반으로 text를 update하고 수정된 부분에 대한 설명력을 제공하고자 하고 있습니다. 그리고 위의 3가지 단계에 대해 satisfactory state가 될 때까지 반복을 하고 있으며 이러한 과정의 반복을 통해 update된 text를 얻을 수 있습니다. update를 모두 진행한 이후에는 수정 의도를 제공하고 있습니다. PEER에서는 text editing을 위해 필요한 background 정보인 문서 집합이 주어진다고 가정할 수 있으며, 자연어(natural language)로 구성된 편집 계획을 구성할 수 있습니다. PEER를 이용하면 language model의 해석이 가능하고 제어를 할 수 있지만 학습을 위한 충분한 데이터를 얻기 힘들다는 단점이 있습니다. 이러한 한계점을 다루기 위해 PERR의 여러가지 instance를 정의하고 학습하고 있는데 training corpus의 누락된 부분을 대신할 수 있는 synthetic data를 생성하고 있습니다. synthetic data를 생성할 때에는 PEER의 모든 variant들을 사용하여 synthetic data를 생성하고 있습니다. 모델 부분 중 최신 edit을 취소할 수 있는 모델인 PEER-Undo가 있다는 점이 새로웠던 것 같습니다. 과정에서의 각각 단계들을 figure를 통해 깔끔하게 설명해주셔서 이해하는데 많은 도움이 되었습니다. 좋은 발표 감사합니다!
이번 세미나는 ‘PEER: A Collaborative Language Model’에 대해 소개해주셨습니다. 본 논문은 consistent하고 factual한 text를 생성하기 위한 Plan-Edit-Explain-Repeat을 반복하는 PEER 방법론을 제안합니다. 해당 모델은 인간의 추론 방식과 유사하게, 최종 답변을 생성하는 과정에 중간 추론 단계를 생성할 수 있게 합니다. 첫 번째 단계에선 주어진 text sequence의 수정 instruction을 포함하는 plan을 생성하는 과정입니다. 두 번째 단계에선 이전 단계에서 계획한 plan을 기반으로 text를 실제로 수정하는 단계입니다. 세 번째 단계에선 모델이 instruction과 reference를 참고하여 Edit 결과에 대한 근거를 생성합니다. 마지막 단계는 1~3번째 단계를 satisfactory state가 될 때까지 반복합니다. 학습 데이터로는 위키피디아의 edit history를 사용하였는데, 해당 데이터에 모든 instance가 원하는 방식으로 annotation이 되어 있는 것이 아니기 때문에 PEER-EDIT, UNDO, EXPLAIN, DOCUMENT, 4가지 방식을 사용하여 synthetic data를 생성하였습니다. 문장을 어떻게 바꿀지 계획하고, 문장을 바꾸고, 문장을 왜 그렇게 바꾸었는지 근거를 제공하는 방식은 마치 인간의 문제 해결 추론 방식과 유사합니다. 모델이 내린 결정에 대한 근거를 볼 수 있다는 점에서 직관적이고 설득력이 높다고 생각합니다. 다만, 저자가 제안한 synthetic data 생성 방법론으로 다른 데이터 셋에서 edit history를 생성한 뒤 다른 baseline model과 비교한 실험 방식이 과연 공평한 것일지 의문이 들었습니다 (해당 방법론이 PEER에 유리하거나 품질이 그리 좋지 못한 데이터 셋을 생성할 가능성이 있기 때문입니다.). 실제로, ICLR 리뷰어 역시 다음과 같이 지적한 바 있습니다. "Since PEER contains four different models which infill the missing part of training data, the authors should test the performance of each model (including PEER-Edit, PEER-Undo, PEER-Explain, and PEER-Document) to demonstrate the quality of augmented data." 구체적인 설명 덕분에 내용을 이해하는데 도움이 많이 되었습니다. 좋은 발표 감사합니다.
해당 세미나는 이유경 발표자님께서 "PEER: A Collaborative Language Model"이라는 논문을 바탕으로 진행되었습니다. 본 논문은 기존 문제점으로, 이전 language model들이 text를 generation 할 때 left to right single pass로 text를 생성하는 점을 꼽고 있습니다. 이는 인간의 writing process와 차이점이 있어, modification과 refine이 불가능하다는 문제점이 있습니다. 이를 해결하고자 인간의 Writing process를 모방해 Plan, Edit, Explain, Repeat이라는 과정으로 학습을 진행하는 방법론을 제시하였습니다. 특히 Edit하기 위한 document와 annotation plan을 얻기 위해, Wikipedia데이터의 comment를 비롯한 누락된 부분을 대신하여 synthetic data를 생성하는 infilling task를 활용하는 점이 흥미로웠습니다. 세미나를 들으면서 결국 자연어처리에서 텍스트를 처리하는 과정은 인간이 글을 이해하고 처리하는 과정과 유사하다고 생각했습니다. 기존 RNN과 Attention의 구조도 사람들이 문맥을 파악하는 과정과 유사하고, 사람이 생성하는 과정 또한 글쓰기를 퇴고하는 과정과 비슷하다고 느껴, 이 점이 추후 발전 방향이라고 생각했습니다. 마지막으로 스텝마다 구분을 명확히 지어서 설명해주셔서 이해하기 쉬웠습니다. 좋은 발표 준비해주셔서 감사합니다.
이번 세미나는 "PEER:ACollaborativeLanguageModel"을 주제로 이루어졌습니다. 해당 논문은 4가지 단계(Plan, Edit, Explain, Repeat)으로 주어진 자연어 데이터를 처리하여, 더 높은 품질의 데이터를 생성할 수 있는 LM을 제안하고 있습니다. 해당 논문의 아이디어는 사람과 같이 1) 주어진 글에 대해 수정 계획을 세우고, 2) 수정하고, 3) 수정 이유를 밝히고, 4) 다시 반복하는 일련의 과정을 LM을 통해 수행하겠다는 다소 직관적이었습니다. 하지만 이를 위해 각 단계에 맞는 모델을 학습하고, 데이터를 구하는 것에 대해 지속적인 의문이 생길 수 밖에 없었습니다. 수정 전 데이터, 수정 후 데이터, 수정 시 참고한 데이터 등 다양한 데이터가 매우 풍부하게 필요하기 때문입니다. 이에 대해 해당 논문에서는 이러한 조건을 충족하는 Wikipedia의 수정 기록을 이용하고 있습니다. 이를 통해 학습한 각 모델을 이용하여, 최종적으로는 수정 기록이 없는 다양한 데이터에 대해 Pseudo Label을 생성하고, 다시 학습하는 과정이 효과적임을 실험을 통해 밝히고 있습니다. 최근 LM과 관련하여 단순히 더 큰 모델과, 더 큰 일반 텍스트 데이터 셋의 흐름으로 나아가는 와중에 매우 독특한 아이디어를 현실 데이터 특성에 맞추어 잘 제안한 논문이었다는 생각이 들었습니다. 어려운 논문이었음에도, 쉽게 설명해주셔서 매우 감사드립니다.
이번 세미나는 기존의 언어모델(language model)이 갖는 한계점 중 하나인 left-to-right 의 text 생성을 지적하여 사람들의 writing process에 근접할 수 있는 방법에 대해서 살펴보았습니다. 비록 우리가글을 작성할 때는 왼쪽에서 오른쪽의 순서로 진행하지만 중간중간 되돌아가서 수정하기도 하고 이미 어느 정도의 내용을 구상한 상태에서 작성이 이루어는 경우도 있습니다. 이러한 점을 언어모델이 수행할 수 있도록 네 가지 단계로 과정을 구성합니다(PEER): 주어진 text의 수정 목표 및 방향설정(plan), 실제 수정 단계(edit), 수정된 사항 설명(explanation) 그리고 앞선 세 과정을 특정 기준을 만족할 때 까지의 반복(repeat). 이러한 task를 Text edit task라 부릅니다. 만약 수정 사항 이력(edit history)가 주어진다면 editing의 과정이 조금 더 수월하겠지만, 해당 정보가 없는 경우에는 상당히 어려운 작업이 됩니다. 이에 PEER는 새로 합성된 문서(synthetic document)를 생성해서 Edit, Undo 등의 subtask에 활용함으로써 위의 한계점을 극복합니다. 해당 Text edit task를 처음 접하게 되었는데, 본 방법론을 비롯한 여러 방법론들이 실제로 현실에서 바로 활용이 가능할지 궁금증을 갖게 되었습니다. 가능하다면, 원하는 스타일의 텍스트로 사전훈련 된 모델을 이용하여 자동 첨삭이 이루어질 수 있지 않을까 하는 생각을 해봅니다. 흥미로운 주제 소개해주셔서 감사합니다.
금일 세미나는 "PEER: A Collaborative Language Model"라는 주제로 진행되었습니다. 본 발표에서는 인간의 writing process를 따라 Plan, Edit, Explain, Repeat의 단계로 언어를 생성하는 Language model PEER가 소개되었습니다. PEER는 edit history를 활용하여 plan과 document를 기반으로 텍스트를 업데이트 하고, 업데이트 된 부분에 대한 explanation을 제공하는 과정을 반복하였습니다. 이 과정에서 데이터 scarcity를 해결하기 위해 PEER의 모든 variant들을 사용하여 synthetic data를 생성하여 모델 학습에 활용하였습니다. 개인적으로 여러 synthetic data 생성 방법 중 Edit history가 없는 임의의 Text data를 학습 데이터로 활용하기 위해 PEER-Undo를 활용하여 backward edit을 생성하고 생성된 edit history로 PEER-Edit을 학습하는 부분이 흥미로웠습니다. 꽤 오랜만에 매우 직관적으로 인간을 모방한 모델을 접해서 재밌었습니다. 좋은 발표 감사합니다.
이번 세미나는 “PEER: A Collaborative Language Model”논문을 주제로 하여 진행되었습니다. 해당 세미나에서 말하는 것은, Language Model과 사람이 Writing을 할 때 최종적인 결과물을 만들 때 발생하는 근본적인 과정에 대해 집중하여, 해당 부분을 모델링에 고려하자라는 것이었습니다. 지금까지는 보통 언어 모델로 어떠한 Text를 생성할 때, Left to right의 Single pass로 Direct하게 Text를 생성하고 있었습니다. 그러나 사람이 작문하는 과정을 생각해 본다면, 사람은 처음부터 어떻게 작성을 할지 계획하기도 하고, 중간에 작문을 수정하기도 합니다. 이러한 사람의 작업 과정을 반영하여 Modeling을 하는 것이 PEER(Plan, Edit, Explain, Repeat) 논문에서 제시하는 것이라고 볼 수 있겠습니다. 먼저 Text editing을 위해 편집을 위해 필요한 Background 정보인 문서 집합이 주어진다고 가정한 후, Text와 문서 집합을 Natural language로 구성하기 위한 편집 계획을 구성합니다. 이후 이렇게 구성된 편집 계획, Text, 문서 집합을 토대로 새롭게 Update된 text를 생성한 후, 수정의 근거를 새롭게 제공하게 됩니다. 이후는 이러한 과정을 지속해서 반복하며, Text를 지속적으로 업데이트하는 것이 PEER 모델이라고 볼 수 있겠습니다. AI라는 분야에서 많은 모델들이 지속적으로 등장하고 있지만, 다른 모델들과는 다르게 해당 모델은 사람의 행동을 근거로 훈련하도록 설계된 모델이라는 생각이 들어 흥미로웠고, Motivation이 매우 합리적으로 다가왔습니다. 장표와 설명을 꼼꼼하게 잘 해주신 덕분에 이해가 수월하여 NLP 분야를 잘 모름에도 불구하고 재미있고 유익하게 들을 수 있었습니다. 정말 좋은 발표 감사드립니다.
금일 세미나는 ‘PEER: A Collaborative Language Model’로 기존의 언어모델의 한계점을 지적하며 인간의 writing process를 닮은 언어모델을 제안하였습니다. 기존 언어모델 같은 경우 auto-regressive로 텍스트의 왼쪽에서부터 오른쪽으로 차례로 생성합니다. 이런 경우 model control, active 수정이 어렵고 hallucination을 검증하기 어려우며 생성된 문장의 의도를 설명하기 어렵다는 단점이 있습니다. 사람의 writing process를 닮은 언어모델을 제안하며 4가지 과정을 거칩니다. input text에 대해서 instruction을 기반으로 수정 계획(Plan)와 계획을 기반으로 수정하는 단계(Edit), instruction과 reference를 통해 edit과정을 설명하는 단계(Explain), 위의 과정을 만족하는 단계까지 계속 반복(Repeat)이 이루어집니다. 이를 통해 모델은 스스로 텍스트를 수정할 수 있게 되고 올바른 방향으로 학습시킬 수 있습니다. 저자들은 해당 과정을 만족하는 데이터셋을 찾기 어려워 wikipedia의 특징(comments, references, .)을 살려서 모델 학습에 이용하였습니다. 연구 아이디어가 데이터셋의 존재여부와 충분한가에 대해 결속되어 한계가 있다고 생각하였는데 해당 연구는 그러한 점을 좋은 방향으로 이끌어 갔다고 느꼈습니다. 새로운 접근 방식은 평가 방식을 선정하는 것이 굉장히 어렵다고 느끼는데 해당 세미나를 들으면서 문제를 정의하고 증명하는 방식에 대해서 배웠습니다. 좋은 발표 감사합니다.
이번 세미나에선 PEER: A Collaborative Language Model 라는 연구가 소개되었습니다. 논문에서 제안하고 있는 PEER는 인간의 글쓰기 과정을 모방하여 Plan, Edit, Explain, Repeat 의 4단계를 학습하는 Language Model 입니다. 문서의 수정 이력을 사용하기 위해 Wikipedia edit history를 주 학습 데이터로 사용하며 history의 relevant document, comment같은 이력이 없는 데이터에 대해서도 이를 보강하기 위해 infilling task를 활용한 점이 인상적이었습니다. 실험 부분에서 정량적인 지표와 함께 Analysis 부분에서 PEER를 통해 생성 또는 수정, 제거한 부분에 대한 설명이 PEER의 각 모듈의 성능을 잘 보여주는 것 같습니다. 인간의 글쓰기 과정을 따르겠다는 합리적이지만 구성 상 복잡할 수 있는 아이디어의 효율성을 잘 입증한 논문인 것 같습니다. 좋은 세미나 발표 감사합니다.
이번 세미나에서는 "PEER: A Collaborative Language Model"을 주제로 하여, 기존의 언어 모델이 가지고 있는 한계를 극복하기 위해 인간의 작문 과정을 따르는 새로운 언어 모델을 소개하였습니다. 인간의 글쓰기 과정을 모방하기 위해 Plan, Edit, Explain, Repeat의 네 단계를 거치는 PEER 모델이 제안되었으며, 이를 통해 모델의 학습과 생성 과정이 인간의 작문 과정에 더 가까워졌다고 볼 수 있습니다. 특히, 이 연구에서는 Wikipedia 편집 이력을 학습 데이터로 활용하고, 관련 문서와 코멘트 등의 이력이 없는 데이터에 대해서도 infilling task를 통해 보완하는 방법을 제시하였습니다. 이를 통해 데이터의 부족이나 한계를 극복하고 모델의 성능을 향상시킬 수 있었습니다. 실험 결과를 통해 PEER 모델이 인간의 글쓰기 과정을 효과적으로 모방하며 성능을 향상시키는 것을 확인할 수 있었습니다. 이 연구의 결과를 바탕으로, 향후 다양한 분야에서 적용 가능성이 높은 새로운 언어 모델이 개발되어, 인간의 작문 과정을 보다 정확하게 반영한 텍스트 생성이 가능해질 것으로 기대됩니다. 좋은 세미나 발표 감사합니다.
본 세미나에서는 PEER:A Collaborative Language Model 이라는 주제의 논문에 대한 리뷰를 진행하였습니다. PEER는 인간의 writing 방식을 모방하여 구성한 Language Model 입니다. 기존의 Language Model 같은 경우에는 Auto regressive object를 설정하여 likelihood를 최대화 하는 방식으로 학습이 진행되어 왔는데, PEER의 경우는 인간의 wirting 방식을 모방한 점이 인상적이고 그럴듯 하다고 생각이 들었습니다. 이러한 PEER는 Plan, Edit, Explain, Repeat의 multiple subtask를 통해 학습이 진행됩니다. 이 과정이 실제로 사람이 글을 쓰는 과정과 유사합니다. 또한 인상적인 부분은 Parameter 수가 11B 정도임에도 불구하고 175B의 GPT3, InstructGPT 보다 downstream task에서 높은 성능을 기록한 부분입니다. 다소 복잡한 내용의 방법론이었지만, 발표자님이 꼼꼼하게 설명해주신 덕분에 잘 따라갈 수 있었습니다. 대용량의 데이터로 LM을 구성하는 것도 중요하지만 학습 방법을 잘 설정하는 것도 굉장히 중요하다는 것을 느꼈습니다. 좋은 발표 감사합니다.
이번 세미나에서는 “PEER : A Collaborative Language Model”에 대해 진행 해주셨습니다. 해당 논문은 인간의 글쓰기 과정을 모방하는 새로운 언어 모델을 제안합니다. 기존의 언어 모델이 왼쪽에서 오른쪽으로 한 번에 생성하는 방식을 사용하기 때문에 생성된 텍스트를 수정,개선,설명할 수 없다고 주장합니다. 이러한 제한을 극복하기 위해 논문에서는 PEER라는 모델을 제안합니다. PEER는 Plan,Edit,Explain,Repeat의 약자로 초안을 작성하고 제안을 추가하고 수정하며 행동에 대한 설명을 제공할 수 있습니다. PEER는 학습 데이터로 편집 이력을 사용되지만 충분한 데이터를 얻기 어렵습니다. Wiki의 경우 full edit history를 제공하고 있지만 wiki 이외의 domain에서 일반화가 어렵다라는 단점이 있습니다. 이를 해결하기 위해 Editing 과정의 Various part를 채울 수 있는 infilling task를 수행하며 Training corpus의 누락된 부분을 대신할 수 있는 synthetic data를 생성합니다. 인간의 인지, 행동 과정을 딥러닝 모델에 반영하고자 한 부분이 인상깊었으며 최근 나왔던 Forward-Forward 처럼 인간의 행동,인지, 지능 부분을 실제 딥러닝에 반영하고자 한 노력이 점차 늘어나는 것은 아닌가 하는 생각이 들었습니다. 좋은 발표 감사합니다.
이번 세미나에서는 PEER: A Collaborative Langauge Model이라는 연구를 소개해주셨습니다. 기존 Generative Language Model은 일반적으로 Left to right의 단방향으로 MLE를 이용해 Target Sequence를 생성하는데 특화되어 있었습니다. 하지만 사람은 텍스트를 작성할 때 수차례의 퇴고를 통해 최종 텍스트를 완성시킨다는 점에서 기존 Generative LM과는 명확한 차이가 존재합니다. PEER에서는 인간의 Writing Process를 닮은 Language Model로, Plan, Edit, Explain, Repeat이라는 네 가지 스텝을 통해 최종 Output Sequence를 생성합니다. LM으로 하여금 “일관성 있으면서 Fact 측면에서 옳바른 텍스트를 써달라”고 하는 것은 매우 어려운 Task이기에 연구진들은 이를 조금 더 쉬운 네 가지 Sub-task로 나누었습니다. 이때 텍스트가 수정된 히스토리를 기반으로 LM을 학습하게 되는데 이를 위해 Edit History가 존재하는 대규모 데이터인 Wikipedia 데이터를 활용했습니다. 사람이 글을 작성하는 것처럼 Sequence를 수정하는 과정을 통해 최종적인 Sequence를 생성한다는 아이디어 자체가 참신했던 방법론이었습니다. Related Works에서 소개해 주셨던 방법론인 Chain of Though라는 방법을 처음 접했을 때에는 Prompt에 사람이 언어적으로 문제를 푸는 과정을 추가한 것으로 수학 문제에서 성능이 올라간다는 것 자체만으로도 신기했는데, 이보다 더 나아가 사람이 글을 쓰는 과정을 차용한 방법론이 나왔다는 것이 인상적이었습니다. 과정 자체가 매우 새로워서 쉽게 설명하는 것이 어려우셨을텐데도 이해하기 쉽게 잘 설명해주셔서 정말 감사드립니다. 항상 좋은 발표 정말 감사드립니다.
이번 세미나에서는 PEER: A Collaborative Language Model 이라는 방법론에 대해 다루었습니다. PEER는 Plan, Edit, Explain, Repeat의 단계를 통해 인간의 글쓰기 과정을 모방한 collaborative LM입니다. PEER는 edit history를 기반으로 학습하고, 다양한 도메인과 editing task에 적용할 수 있는 모델입니다. 하지만 대부분의 데이터는 edit history를 갖지 않기 때문에 infilling task를 통해 synthetic data를 생성하고 이를 활용합니다. Infilling task는 plain text에서 임의의 부분을 수정하거나 삭제하는 task인 Edit, plain text에서 backward edit을 통해 역으로 edit history를 생성하는 task인 Undo, edit된 부분에 대해 comment를 생성하는 task인 Explain, plain text에 대해 자연어 instruction을 생성하는 task인 Document의 4단계로 구성됩니다. 이러한 infilling task를 통해 edit history를 생성하고 특히 Plain과 Document 단계를 기반으로 text를 update하고 수정된 부분에 대한 설명력을 제공할 수 있게 됩니다. 실험에서는 일반적이지 않은 본인들의 주장을 입증하기 위한 실험 설계와 논리 전개가 매우 인상적이었습니다. 방법론이 굉장히 생소하고 참신했는데 핵심 내용과 구성 단계를 굉장히 자세하게 차근차근 설명해주셔서 내용을 쉽게 이해할 수 있었습니다. 언제나 좋은 발표 감사합니다!
이번 세미나에서는 Collaborative language model PEER에 대해 설명해 주셨습니다. PEER은 사람이 글을 쓰는 방식을 따라 Plan, Edit, Explain, Repeat 과정을 통해 language generation을 수행하는 model로, LM로 하여금 사람과 같은 학습 과정을 따르도록 제안합니다. 사람과 닮은 인공지능의 개발은 매우 중요한 연구 분야라고 생각해 흥미롭게 들을 수 있었습니다. 이러한 연구에선 최대한 인간을 모방하고자 해도 현실적으로 차이가 나게 되는데, 이를 어떻게 처리하는 지가 쟁점인 것 같습니다. 본 논문에도 제안한 네가지 학습 과정의 대상인 Edit history가 실제 데이터에서는 누락된 경우가 많기 때문에 infilling task를 통해 해당 부분을 보강하도록 하였고, 이 부분이 가장 인상 깊었습니다. 최근 사람 같은 언어 모델에 대한 고민을 하며 사람의 언어는 개인의 의사를 기반으로 의도를 전달하기 위한 도구인 것에 비해, 언어 인공지능은 단순히 task를 수행하기 위한 장치이기 때문에 보편적인 지능이 되기는 어렵다는 생각을 하는데, 앞으로 연구할 것이 많은 분야인 것 같습니다. 좋은 발표 감사합니다.
이번 세미나는 PEER: A Collaborative Language Model를 주제로 진행되었습니다. PEER는 기존의 language model들이 인간의 writing process와 차이점을 가진다는 것을 지적하며 edit history를 기반으로 4가지 스텝을 통해 인간의 writing process를 닮은 language model을 제안하고자 하였습니다. 4가지 스텝은 plan, edit, explain, repeat입니다. 가장 흥미로웠던 점은 syntatic, stylistic text edit이 가능하여서 정보를 삭제, 업데이트, 의미 변경 등 다양한 수정 작업이 가능하다는 점이었습니다. 딥러닝 모델을 연구하면서 과연 학습 방법, 모델 구조 등이 사람의 방법과 유사한가에 대해서 의구심이 항상 들었습니다. 해당 연구가 이런 관점에서 접근한 연구인 것 같아 흥미롭게 들을 수 있었던 것 같습니다. NLP뿐 아니라 여러 분야에서 과연 사람이라면 어떻게 접근하였을까 고민해보는 것도 좋은 방향인 것 같습니다. 좋은 발표 감사합니다.
이번 세미나는 ICLR 2023에 등재된 논문 PEER: A Collaborative Language Model을 주제로 진행되었습니다. 최근 LLM 및 Prompting 논문에 related work로 자주 언급되는 논문이며, PET의 저자 중 한 분인 Timo Schick의 논문이라는 점에서 특히 관심이 갔습니다. 본 논문에서 제안하는 PEER는 Plan, Edit, Explain, Repeat의 약자로 인간의 작문 과정과 유사한 언어모델의 학습 방식을 가진다는 특징이 있습니다. PEER의 4가지 단계는 구체적으로 입력 텍스트를 자연어 지시문을 통해 원하는 방향으로 수정할 수 있도록 계획하는 Plan, Plan에서 생성된 지시문을 반영하여 text를 수정하는 Edit, 지시문과 레퍼런스를 통해 Edit 과정을 설명하는 Explain, 앞선 3단계를 satisfactory state에 도달할 때까지 반복하는 Repeat으로 구성되어 있습니다. 간단한 컨셉이지만 각각의 학습 단계가 꽤나 복잡한 방식으로 구성되어있다고 느꼈습니다. 그럼에도 4단계를 유기적으로 연결하여 설계한 점은 분명 인상 깊었으며, 향후 연구 방향이 언어모델의 구조 자체보다는 기존 모델을 강화할 수 있는 추가 학습 방안을 설계하는 방식으로 발전하지 않을까 짐작해볼 수 있었습니다. 유익한 세미나 진행해주셔서 감사합니다.
이번 세미나에서는 PEER: A Collaborative LM이라는 논문에 대해 소개해주셨습니다. 이 때 제안하는 방법론인 PEER은 Plan, Edit, Explain, Repeat의 약자였는데 즉 인간의 작문 과정을 모방한 학습 방식을 갖는 모델을 제안하였습니다. 인간의 작문 과정은 습작 즉 쓰고 고치는 과정이 발생하게 되는데 본 논문에서는 이 과정을 위하여 infilling task를 통해 모방하였습니다. 즉 원본 텍스트에서 plan과 edit 과정을 통해 임의로 특정 부분을 수정 혹은 삭제하여 edit history를 생성한 후 이 edit 과정을 설명하는 explain 파트를 반복하여 학습이 일어나는 방식을 제안하였습니다. 정말 오랜만에 사람의 학습 구조를 모방하기 위해 제안된 모델이어서 흥미로웠고 각 단계별로 복잡한 process를 차근차근 설명해주셔서 잘 이해할 수 있었습니다. NLP뿐만이 아니라 다른 task에서도 이와 같이 인간의 인지 혹은 학습 과정을 모방한 방법론을 제안하는 것이 좋은 시도가 될 수 있겠다라는 생각을 하였습니다. 유익한 세미나 감사합니다.
금일 세미나는 "PEER: A Collaborative Language Model" 논문에 대한 소개를 해주셨습니다. 논문에서 제안하는 PEER은 Plan, Edit, Explain, Repeat의 약자로 사람의 writing process에 해당하는 네 가지 과정을 학습에 반영한 방법입니다. 그동안의 LM을 통한 generation은 single process인 반면 사람의 writing process는 여러 수정 및 반복 과정이 포함되어있다는 점을 언급하여 기존과 다른 방향으로 접근했다는 점에서 인상깊은 방법이었습니다. 그러나 대부분의 데이터셋은 edit history를 포함하고 있지 않기 때문에 infilling task를 통해 edit history를 통해 보완하였습니다. 개인적으로는 모델이 반드시 사람과 동일한 과정으로 학습해야 하는가? 또는 사람이 배우는 과정이 꼭 올바른가? 라는 생각도 있지만 이를 확인하기 위해서 사람의 학습 방식을 모델에 적용해보는 과정도 반드시 필요하다 생각하는데 이를 위한 좋은 연구 내용이었다고 생각됩니다. 좋은 발표 감사합니다.
이번 세미나에선 PEER: A Collaborative Language Model 라는 논문으로 진행되었습니다. 논문에서는 Plan, Edit, Explain, Repeat 의 4단계를 학습하는 PEER 를 소개합니다. 이는 인간의 작문 과정을 모방하여, 고치는 과정이 발생하는 것을 반영 한 것입니다. 문서의 수정 이력을 사용하기 위해 Wikipedia edit history를 주 학습 데이터로 사용합니다. 즉 원본 텍스트에서 plan 과 edit 과정을 통해 임의로 특정 부분을 수정 삭제 하여, history 를 생성하고 이를 설명하는 방법을 반복합니다. 사람과 유사한 방식으로 학습하는 것이 인공지능의 궁극적인 목표인가에 대한 사고도 하게되었고, 모든 것의 답이 사람처럼 하는것인 가에 대한 생각도 하게 되었습니다. 감사합니다.