논문 리스트
Overview
번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 10678
|
관리자 | 2020.03.12 | 0 | 10678 |
공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 9295
|
관리자 | 2020.03.12 | 0 | 9295 |
공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 10395
|
관리자 | 2020.03.12 | 0 | 10395 |
508 |
![]()
Minjeong Ma
|
2025.06.02
|
추천 0
|
조회 36
|
Minjeong Ma | 2025.06.02 | 0 | 36 |
507 |
![]()
Kiyoon Jeong
|
2025.06.02
|
추천 0
|
조회 33
|
Kiyoon Jeong | 2025.06.02 | 0 | 33 |
506 |
![]()
Woongchan Nam
|
2025.06.02
|
추천 0
|
조회 32
|
Woongchan Nam | 2025.06.02 | 0 | 32 |
505 |
![]()
SangMin Lee
|
2025.06.02
|
추천 0
|
조회 34
|
SangMin Lee | 2025.06.02 | 0 | 34 |
504 |
[Paper Review] Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems (5)
Siyul Sung
|
2025.05.31
|
추천 0
|
조회 89
|
Siyul Sung | 2025.05.31 | 0 | 89 |
503 |
[Paper Review] Restructuring Vector Quantization with the Rotation Trick (14)
Woojun Lee
|
2025.05.20
|
추천 0
|
조회 197
|
Woojun Lee | 2025.05.20 | 0 | 197 |
502 |
[Paper Review] Battling the Non-stationarity in Time Series Forecasting via Test-time Adaptation (16)
Jinwoo Park
|
2025.05.16
|
추천 0
|
조회 175
|
Jinwoo Park | 2025.05.16 | 0 | 175 |
501 |
[Paper Review] SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning (18)
Hun Im
|
2025.05.15
|
추천 0
|
조회 166
|
Hun Im | 2025.05.15 | 0 | 166 |
500 |
[Paper Review] AA-CLIP: Enhancing Zero-Shot Anomaly Detection via Anomaly-Aware CLIP (18)
Junyeong Son
|
2025.05.08
|
추천 0
|
조회 300
|
Junyeong Son | 2025.05.08 | 0 | 300 |
499 |
[Paper Review]SLMREC: Distilling Large Language Models Into Small For Sequential Recommendation (16)
Doyoon Kim
|
2025.05.01
|
추천 0
|
조회 253
|
Doyoon Kim | 2025.05.01 | 0 | 253 |
이번 세미나에선 Numerical Reasoning over Tabular Data 를 주제로 FORTAP, TaCube 라는 두 가지 연구에 대해 소개되었습니다. FORTAP은 spreadsheet formula 기반의 numerical-reasoning에 적합한 pre-training 방식을 제안하고 있고, Numerical Reference Prediction(NRP), Numerical Calculation Prediction(NCP), Formula MLM 의 세 가지를 pretext task로 학습합니다. 이 중 reference cell을 예측하는 NRP와 calculation 연산자를 예측하는 NCP가 다른 도메인에서 사용되던 self-supervised learning 방식을 spreadsheet 형태의 tabular dataset에 적합하게 변형한 pretext라는 생각이 들었습니다. 두 번째 논문인 TaCube는 사전 계산된 data cube를 추가적인 입력으로 사용하여 numerical reasoning 이 필요한 QA task의 성능을 높였습니다. 추가 입력으로 사용되는 값들이 numerical reasoning의 성능을 높여주는 부분은 일종의 inductive bias가 모델에 가해져 특정 task의 성능을 높이는 것으로 볼 수 있을 것 같습니다. Tabular dataset을 다루는 연구는 많이 접하지 못하였는데 background에서 다양한 이전 연구들이 소개되어 어느 정도 이해하면서 들을 수 있었던 것 같습니다. 좋은 세미나 발표 감사합니다.
이번 세미나에서는 Tabular Q&A 분야에서 numerical reasoning을 고려하는 FORAP과 TaCube에 대해 살펴 보았습니다. FORTAP 에서는 cell들 간 연산을 고려할 수 있는 pertaining 방법론을 제안하였습니다. 이를 위해 table-only setting에 formula-based prompt와 cell-wise classification를 통한 table-text setting, numerical calculation prediction 그리고 formula MLM를 제안하여 좋은 성능을 보였습니다. TaCube에서는 table에 대해 사전 계산된 aggregation과 arithmetic 결과를 추가적인 input으로 활용하여 finetuning을 진행하였습니다. 두 연구를 보며 table 데이터를 다루기 위해 많은 노력들이 진행되고 있음을 알 수 있었습니다. 또한 발표 전반부에 background 부분을 통해 연구 흐름을 전반적으로 알 수 있었습니다.
이번 세미나에서는 FORTAP과 TabCube에 대한 방법론 소개가 있었습니다. 첫번째로 FORTAP은 엑셀 스프레드시트에서 사용되는 셀 공식을 numerical reasoning에 활용하여 pretraining하고자 했습니다. 특히 numerical reference prediction, calculation prediction, formula MLM 등의 pretext task를 제안하여 학습 방법론을 구축했습니다. 다음으로 TaCube는 table에서 숫자의 연산 결과를 cube의 형태로 미리 계산하여 Auto regressive PLM의 numerical reasoning 성능 향상을 위한 학습 과정에 사용하고자 했습니다. 두 논문 모두 수치형 table의 본질적 구성 방식을 잘 고려하여 reasoning을 위한 세분화된 정보를 효과적으로 학습할 수 있도록 잘 고민했다고 생각했습니다. 흥미로운 주제로 좋은 발표 감사합니다.
이번 세미나는 Table QA 분야의 두가지 논문인 FORAP과 TaCube 였습니다. 두 논문 모두 Table QA 중에서도 실제 수학적 연산을 통한 결과 산출이 필요한 경우에 집중하고자 한 모습을 볼 수 있었습니다. 특히 FORAP의 경우 실무에서 흔히 데이터를 다루는 툴인 스프레드 시트에서 직접 다양한 수식이 사용되고, 이러한 수식이 Table QA와 유사한 연산이라는 점에서 착안합니다. 이러한 아이디어에서 출발하여 실제 모델이 Table과 수식 간의 관계를 직접적으로 학습할 수 있도록, NRP, NCP, Formula MLM을 이용하여 사전학습을 시도했습니다. 기존의 언어모델이 수학적 연산을 위해 학습되지 않은 상태이기 때문에 Zero-Shot 상황에서 연산 능력이 매우 떨어지는데, Table 데이터 특성에 맞추어 직관적이면서 효과적인 pretrain task를 고안한 것이 매우 인상적이었습니다. 또한, TaCube의 경우 기존의 Tabular 데이터가 여러 개의 축(연도, 지역, 분과 등)으로 이루어져 있다는 점에서 착안하여 데이터를 큐브 형태로 다루고 있습니다. 연산량을 효과적으로 줄이면서 큐브를 생성하고, 이러한 큐브를 Question과 함께 입력했습니다. 매우 단순한 아이디어지만, 테이블에서 효과적으로 Question과 관련된 데이터를 생성하는 데 의의가 있는 것 같습니다.Table QA 분야에 대해 발표자 분의 여러 발표를 들으면서 기존의 plm에 어떻게 테이블 데이터의 지식을 삽입하는지가 관건인 것 같습니다. 복잡한 방법론을 사용하기 보다 tabular 데이터에 적합한 데이터 형태를 만드는 작업들이 매우 흥미로운 발표였습니다. 감사합니다.
이번 세미나에서는 NLP 분야 중 Tabular data를 활용한 Numerical reasoning을 주제로한 두 가지 논문이 소개 되었습니다. 첫 번째 논문이었던 FORTAP은 numerical-reasoning aware table pre-training 방법론입니다. 아시다시피 흔히 엑셀 파일 내에서는 여러 셀 값을 활용한 함수가 적용될 수 있는데 가령 ‘=SUM(B2:B5)&11%’를 엑셀 시트의 셀에 입력하였을 때 함수, 참조 값, 사칙연산기호, 상수 등을 모두 식별하여 수식을 텍스트로 받아들여 실제 해당 수식의 결과를 낼 수 있도록 하는 과업을 수행할 수 있도록 합니다. 이를 수행하기 위해 FORTAP 에서는 numerical reference prediction, numerical calculation prediction, Formula MLM 등의 사전학습 방식을 실시합니다. 두 번째 방법론인 TaCube는 Data Cube라는 것을 일반 사전학습된 언어모델(PLM)에 추가 입력 하여 numerical-reasoning을 좀 더 잘 수행할 수 있도록 하는 방법론 혹은 framework 입니다. 이때 Data cube란 다차원의 행렬로 저장된 데이터로 각 차원은 가령 주소, 시간, 아이템 종류 등 사전에 정의된 항목(변수)로 정의 됩니다. 그리고 각 원소는 해당 변수의 조건에 맞는(ex. 시간=1분기, 주소=서울시) 어떠한 값을 나타냅니다. 이렇게 저장된 데이터를 이용해서 사전에 평균이나 합계 등의 계산을 미리 실시해 두고, 이 정보를 최종적으로 PLM에 입력하게 되는 것입니다. 전반적으로 Tabular data를 nlp의 과업으로 수행하고자 하는 시도가 굉장히 신선하고 한편으로는 많은 것들이 복합되어 있는 것 같아 보입니다. 이를 위한 데이터셋이 존재하는 것도 신기합니다. 어쩌면 Microsoft에서 해당 연구 분야의 선두에 있는 것이 충분히 납득갑니다. 흥미로운 발표였습니다. 감사합니다.
이번 세미나에서는 QA 태스크 중 Tabular QA에 관한 방법론인 FORTAP와 TaCube에 대해 다뤄주셨습니다. Tabular QA는 Excel 또는 CSV와 같은 데이터를 다룹니다. 해당 데이터들은 언어 뿐만 아니라 numerical한 값 그리고 엑셀 Function 수식, 기호 등을 복합적으로 다루고 결과를 낼 수 있는 과업을 수행해야 합니다. 해당 방법론들은 이를 수행하기 위해 numerical reference prediction, numerical calculation prediction, Fomula MLM 등의 사전 학습 방식을 수행합니다. 두 번째 방법론인 TaCube는 Tabular 데이터가 다차원 행렬이라는 특징을 고려하여 Data Cube 형태로 다루고 있으며, 일반 사전 학습된 언어모델에 추가 입력하여 numerical-reasoning의 성능을 향상시킬 수 있도록 합니다. Tabular QA 분야의 큰 흐름을 대표적인 논문들과 함께 설명해주셨기에 이해하는데 도움이 되었고, 각 논문들이 해결하고자 하는 것 그리고 발생하는 문제들을 연결하여 설명하신 부분이 좋았습니다.
이번 세미나에서는 Numerical Reasoning over Tabular Question Answering을 주제로 Table QA에서 numerical reasoning 관련 문제를 다루는 Microsoft에서 나온 두편의 논문, FORTAP, TaCube을 소개해 주셨습니다. FORTAP는 spreadsheet formula 기반 numerical-reasoning aware table pre-training이며 task로는 table와 target cell이 주어졌을 때 target cell의 formula를 예측하는 formula prediction task와 table과 질문이 주어졌을 때 table에서 질문에 대한 정답을 도출하는 table question answering task를 수행하고 있습니다. 결론적으로 formula pretraining을 이용하게 되면 cell reference, arithmetic등을 포함하고 있는 numerical skill을 향상시킬 수 있다는 부분이 인상적입니다. 테이블과 텍스트로 이루어진 하이브리드 데이터셋을 이용하고 있으며, 사전학습된 PLM들을 곧바로 사용하기 보다 추가적인 데이터셋을 이용하여 pre-training을 진행하고 fine-tuning을 진행하고자 하고 있습니다. Tacube는 table에 대해 사전에 계산된 aggregation/arithmetic 결과를 추가적인 input으로 활용하자는 아이디어를 이용하고 있습니다. 해당 논문에서는 auto-regressive PLM의 numerical reasoning ability와 numerical reasoning에 특화된 table QA 데이터셋 간의 간극을 줄이고자 하고 있습니다. Table QA의 전반적인 흐름과 간단한 예시를 통해 설명들을 잘 이해할 수 있었습니다. 또한 논문이 발표된 기업의 색깔에 맞춰 PPT를 구성하신 점도 인상적입니다. 좋은 발표 감사합니다!
금일 세미나는 "Numerical Reasoning over Tabular Data"라는 주제로 진행되었습니다. 본 발표에서는 Tabular Question Answering에서 Numerical Reasoning 문제를 해결한 FORTAP과 TaCube이 소개되었습니다. 개인적으로 FORTAP에 대한 설명을 흥미롭게 들었는데, 해당 모델은 spreadsheet formula 기반의 numerical-reasoning aware table pre-training 방법론을 제안하였습니다. FORTAP은 spreadsheet의 cell들 간 참조 및 연산 관계를 활용한 Numerical Reference Prediction, Table-only Setting, Table-Text Setting을 제안하여 모델의 Numerical Reasoning 성능을 향상시켰습니다. 세가지 방법 중 Numerical Reference Prediction이 가장 기억에 남는데, 참조 관계에 있는 cell들이 함께 연산에 사용되는 경우가 많다는 점을 활용하여 header reference relationship을 학습하기 위한 방법을 제안한 점이 논리적이라는 생각이 들었습니다. 금일 발표에서 소개된 방법들은 해결해야하는 문제를 잘 파악하고 이에 맞는 방법들을 잘 제안했다는 생각이 들었습니다. 좋은 발표 감사합니다.
이번 세미나는 Numerical Reasoning over Tabular Question Answering을 주제로 진행되었습니다. FORTAP과 TaCube 두가지 논문에 대해서 소개해되었습니다. FORTAP은 엑셀에서 주로 사용하는 spreadsheet formula를 기반으로 pre-training하는 기법에 대해 소개하고 있습니다. 총 세가지인데 첫번째는 numerical reference prediction으로 formula cell의 header와 reference의 관계를 학습하도록 positive pair와 negative pair를 설정하여 cell-wise classification을 수행하는 방법입니다. 두번째로 numerical calculation prediction은 contextual embedding을 통해서 operator/function을 예측하는 task이고 formula MLM은 masking된 operator나 cell을 예측하는 방법입니다. 두번째 논문인 TaCube는 사전 계산된 aggregation/arithmetic 결과를 input으로 활용하는 방법으로 Data Cube에 사전 정의된 항목들을 평균이나 합계 등 계산 결과를 저장해두고 PLM에 사용하는 방법입니다. Table QA에 대해 새롭고 재미있는 방법들이었던 것 같습니다. 좋은 발표 감사합니다.
이번세미나는 Numerical Reasoning over Tabular Question Answering 을 주제로 진행되었습니다. 본 논문을 발표하기 전에 이전 연구들이 집중했던 부분, 부족했던 부분에 대한 배경설명이 좋았고, 발표의 흐름을 따라가기 좋았습니다. FORTAP 에서는 spreadsheet formula에 기본적으로 담겨있는 cell들 간 참조/연산 관계를 학습하여 모델의 연산 reasoning 능력을 향상시키기 위해 고안되었고, table pre-training 방법을 고안했습니다. TaCube 에서는 auto regressive PLM 들의 좋지 않은 성능을 보완하기 위해 질문과 관련있는 연산을 미리 계산하는 방식의 아이디어를 제안하였고, 결과 SOTA 성능을 냈습니다. 좋은발표 감사합니다.
금일 세미나에서는 Numerical Reasoning over Tabular Data에 관련된 방법론인 FORTAP, TaCube에 대한 리뷰를 진행하였습니다. FORTAP: Using Formulas for Numerical-Reasoning-Aware Table Pre-training의 경우 spreadsheet formula를 이용하여 pre-training에서 Numerical Reference Prediction (NRP)와 Numerical Calculation Prediction (NCP), Formula MLM 태스크를 수행합니다. Formula pre-training에 중점을 두었던 방법론인 만큼 실험에서도 Numerical skill이 향상되었음을 확인할 수 있었습니다. TaCube: Pre-computing Data Cubes for Answering Numerical-Reasoning Questions over Tabular Data에서는 Table에 대해 사전 계산된 Aggregation/Arithmetic 결과를 추가적인 Input으로 활용합니다. 여기서 data cube라는 개념이 도입되는데, data cube란 같은 column/row header에 속하는 cell들간 aggregation 결과 (sum,count,average)를 모아 놓은 것을 의미합니다. 본 방법론의 경우 WikiTQ 데이터셋에 대해 기존 SOTA 모델(TAPEX-LARGE)에 적용해서 새로운 SOTA 달성하였습니다. Table MRC에 대한 거의 대부분의 논문을 세미나에서 다뤄주고 있으셔서 내용에 대한 수월한 이해를 할 수 있었습니다. 해당 분야를 계속 연구하고 계신거로 알고있는데, 좋은 연구가 진행되기를 기대합니다. 좋은 발표 감사합니다.
이번 세미나에서는 Tabular QA task에 관련된 FORTAP와 TaCube에 대해 다루었습니다. 첫 번째 논문인 FORTAP은 Spreadshet Formula를 기반으로 하는 Numerical-reasoning aware table pre-training 방법론으로 수학적 연산에 대한 output을 산출하는 것을 중점으로 하는 방법론입니다. 이 방법론은 numerical reference prediction, numerical calculation prediction, Formula MLM를 사용하여 pretraining을 합니다. Table QA 모델의 pretraining 방식이 LLM과 다른 것이 인상적이었습니다. 두 번째 논문인 TaCube는Auto-regressive PLM의 Numerical Reasoning Ability와
Numerical Reasoning에 특화된 TableQA데이터셋 간의 차이를 줄이기 위해 고안된 방법론입니다. Table에 대해 사전 계산된 Aggregation, Arithmetic 결과를 추가적인 Input으로 활용힌 해당 모델의 아이디어가 흥미로웠습니다. 좋은 발표 감사합니다.
이번 세미나에서는 발표자께서 지난 세미나부터 소개시켜 주시고 있는 Table Data에 활용할 수 있는 QA 방법론 FORTAP와 TaCube을 소개해 주셨습니다. 우선 FORTAP은 ACL 2022에 게재된 Using Formulas for Numerical-Reasoning-Aware Table Pretraining 논문에서 제안된 방법론으로, 오피스 엑셀 형태 데이터에 이미 포함되어 있는 참조관계와 함수를 사용하여 numerical reasoning pretraining을 수행합니다. 그 방법은 각각 Numerical Reference Prediction (NRP), Numerical Calculation Prediction (NCP) Formula MLM으로 기존의 language model의 약점이었던 수학적 연산을 상당 부분 보완하는 효과를 보였습니다. 다음의 TaCube는 EMNLP 2022의 Pre-computing Data Cubes for Answering Numerical-Reasoning Questions over Tabular Data 논문에서 제안된 방법론으로 table의 정보가 time, Item, Address처럼 여러 개의 축의 형태로 저장되어 있나는 점에 착안하여 데이터를 Cube의 형태로 처리합니다. 이 cube안의 Aggregation/Arithmetic 연산 결과를 미리 수행하여 저장해두고 PLM Fine-tuning시 추가적인 Input으로 활용하는 것으로 수학적 연산 능력을 향상 시켰습니다. 두 모델 모두 table 데이터의 특징적인 형태에 착안하여 모델의 약점을 개선하는 방법을 제안한 것으로 데이터에 맞는 모델을 개발하는 것의 중요함을 다시 한번 느끼게 되었습니다. 좋은 발표 감사합니다.
이번 세미나는 Numerical Reasoning over tabular question answering라는 주제로 Tabular QA와 관련된 2가지 논문을 바탕으로 진행되었습니다. 먼저 첫 번째로 소개해주신 FORTAP: Using Formulas for Numerical-Reasoning-Aware Table Pre-training 논문에서는 Spreadsheet formula 기반 Numerical-reasoning aware table pre-training 기법을 제안하고 있습니다. 해당 논문은 Numerical Reference Prediction, Numerical Calculation Prediction, Formula MLM 3가지의 pre-training task를 제시하는데, 이때 엑셀 시트에 존재하는 Spreadsheet formula인 Operators, Functions, Cell References, Constants 들 간의 관계를 이용하게 됩니다. 최종적으로 해당 논문에서는 Formula pretraining을 통하여 모델의 Numerical Skill을 향상시킬 수 있었다고 말하고 있습니다. 두 번째로 소개해주신 TaCube: Pre-computing Data Cubes for Answering Numerical-Reasoning Questions over Tabular Data 논문에서는 Table에 대해 사전 계산된 Aggregation/Arithmetic한 결과를 추가적인 Input으로 활용한다는 직관적인 내용을 가지고 있습니다. 이를 통하여 진문과 관련 있는 연산을 미리 계산하여 Input으로 줌으로써, Auto-regressive RLM들의 좋지 않은 Numerical Reasoning 능력을 보완할 수 있게 됩니다. 해당 분야는 잘 모르는 분야이지만, 발표자분이 하나하나 깊게 설명해 주셔서 잘 들을 수 있었습니다. 좋은 발표 정말 감사드립니다.
이번 세미나는 Tabular Data를 대상으로 Numerical Reasoning이 필요한 Question Answering을 수행하는 기법을 주제로 진행되었습니다. FORTAP이라는 방법론과 TaCube라는 방법론을 제시한 두 논문을 소개해 주셨습니다. 첫 번째 논문에서는 Spreadsheet Formula를 기반으로 Numerical Reasoning을 수행하기 위한 Table Pre-training 방법론을 제안했습니다. 엑셀 시트에 존재하는 SUM, IF를 비롯한 Function, +와 -를 비롯한 기호와 숫자 등을 Text 형태로 받아들여서 수식의 계산 결과를 도출하게 만드는 것이 목표입니다. 이를 위해 Numerical Reference Prediction, Numerical Calculation Prediction, Formula MLM이라는 세 가지 Objective를 통해 Pre-training이 이루어집니다. 두 번째 논문에서는 Data Cube라는 다차원 행렬 형태의 데이터 구조를 활용해 Column/Row Header에 속하는 Cell들 간 SUM, COUNT, AVERAGE와 같은 Aggregation 결과를 저장해두고 Auto-regressive Pre-trained LM에 추가적인 Input으로 사용하여 Numerical Reasoning 능력을 보완해 SOTA를 달성했습니다. Tabular QA라는 Task는 발표자 분 덕분에 처음 접했었는데, Tabular Dataset을 텍스트 형태로 변환하여 Language Model을 사용하고 심지어는 Numerical Reasoning까지 수행한다는 점은 놀라운 것 같습니다. 흥미로운 내용이라 재미있게 들을 수 있었습니다. 좋은 발표 감사합니다.
이번 세미나에서는 table 데이터를 입력으로 받아 Numerical Reasoning task를 수행한 2가지 연구를 소개해주셨습니다. 두 논문 모두 Microsoft의 논문이며 발표 시기를 보았을 때 최근 들어 언어 모델을 활용한 table 연구가 점차 활발해지고 있다는 것을 실감할 수 있었습니다. 발표자 분의 연구미팅을 통해 사칙 연산을 다루는 table 논문을 여러 번 접할 수 있었는데, 세미나로 한 번 더 흐름을 정리할 수 있어 좋았습니다. Microsoft의 논문 답게 엑셀 시트를 연구 source로 활용한 점이 인상 깊었습니다. 사칙 연산 task의 경우 단순히 행과 열로 구성된 table 외에, 중첩된 Multi Index를 가지거나 hierarchical하게 구성되는 table이 많을텐데, 이러한 점을 고려하여 스프레드시트의 쿼리를 활용한 점과 aggregation 정보를 fine-tuning에 직접적으로 활용하고자 했던 점도 재밌는 아이디어였던 것 같습니다. 현재 저 또한 Table 공동 연구를 수행하고 있기는 하지만, table 관련 연구가 과연 어떤 분야에 쓰일 수 있을까에 대한 개인적인 고민이 있었는데, Numerical Reasoning이 자동화된다면 새롭게 활용할 수 있는 지점이 많아질 것이라는 생각이 들었습니다. 무엇보다 PPT 구성 및 디자인이 매우 깔끔하여, 출처가 궁금해질 정도였습니다. 다음 세미나도 기대하겠습니다. 수고 많으셨습니다.
이번 세미나에서는 table data를 활용한 numerical reasoning 방법론에 대해 다루어주셨습니다. 두 가지 방법론을 소개해주셨는데 FORTAP 이라는 방법론과 TaCube라는 방법론 이었습니다. 특히 FORTAP이 흥미로웠는데 FORTAP에서 엑셀 시트 데이터를 이용해 셀 들간의 연산을 수행하게 되는 과정들을 자세하게 말씀해주셔서 이해하기 수월 하였습니다. FORTAP은 3가지 pre-training task를 제안하였는데 formula cell의 header와 reference의 관계를 학습하기 위해 positive pair와 negative pair를 만들고 이에 대해 cell-wise classification을 수행하는 부분이 흥미로웠습니다. Task 자체가 굉장히 자유도가 높다보니 방법론 자체도 저자의 주관적인 논리가 많다고 생각 되었습니다. 만약 논문으로 보았다면 의아했을 부분들도 발표에서 잘 설명해주셔서 좋았던 것 같습니다. 좋은 발표 감사드립니다.
금일 세미나는 Table 대상으로 Machine Reading Comprehension(MRC)를 목적으로하는 Table QA task에 대한 두 가지 방법인 FORTAP과 TaCube를 소개해 주셨습니다. 두 방법은 모두 tabular data에 대한 numerical reasoning 능력을 향상하고자 제안된 방법입니다. 첫 번째로 FORTAP은 spreadsheet formula에 담겨있는 cell들 간의 참조/연산 관계를 활용합니다. 일반적으로 많이 사용되는 excel sheet의 수식을 학습에 활용한다는 점이 인상깊었습니다. 두 번째로 TaCube에서는 Data cube라는 개념을 알게 되어서 새로운 점이 있었습니다. 이때 각 차원마다 연도, 지역, 분과와 같은 기준으로 데이터를 구성한 cube를 통해 pretrained model을 fine-tuning할 때 활용합니다. 두 논문과 더불어 배경지식도 잘 정리해주셔서 관심있게 보고있는 논문의 흐름을 알 수 있었습니다. 좋은 발표 감사합니다.