[Paper Review] Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence
Paper Review
작성자
Kyoungchan Park
작성일
2023-02-10 00:56
조회
3466
Topic
Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence (NIPS 2021, 20회 인용)
Overview
기존의 model regularization 기반의 방법론들이 사실은 model calibration 성능에 악영향을 끼치고 있다는 것을 밝힘
실험을 통해 그 원인에 대해 분석하고 실제로 post-hoc calibration을 적용하면 기존 CE loss 기반의 딥러닝 모델에서 오히려 calibration 성능이 좋다는 것을 확인함
이에 기반하여 calibration 성능을 향상시키기 위한 새로운 loss인 inverse focal loss를 제안함
발표자료 및 발표영상
발표자료: 첨부파일 참조
발표영상:
참고문헌
발표 자료 참조.
전체 15
Doyoon Kim
2023-02-18 13:35
이번 세미나에서는 딥러닝 모델의 학습 기법(technique) 중 하나인 calibration에 대해서 다루어졌습니다. 평소 calibration이라는 단어는 자주 접했지만 정확한 의미는 모르고 있었기에 관심있게 경청했습니다. 우선 calibration이라는 것은 모델의 출력값이라할 수 있는 confidence score 값이 정답의 분포와 일치하도록 교정하는 작업 혹은 과정을 의미합니다. 딥러닝 모델의 기존 문제는 overconfident 하다는 점이라고 합니다. 가령 이중분류를 진행할 때 실제 정답은 긍정이지만 모델은 부정 90%, 긍정 10% 등의 예측을 한다는 점입니다. Calibration의 중요성은 모델의 예측 실패로부터 생성되는 많은 부작용 및 피해를 고려했을 때 더욱 커집니다. 당장 의학분야에서 병 진단 유무를 떠올린다면 쉽게 이해할 수 있습니다. 발표자분께서 설명해주셨듯이 calibration의 성능을 측정하는 지표와 calibration의 성능을 향상시킬 수 있는 여러 계열의 방법론들이 연구되어 오고 있습니다. 이 중 우리가 잘 알고 있는 정규화(regularization)는 한 갈래를 맡고 있습니다. 하지만 소개해주신 논문의 결과에 따르면 오히려 정규화 방법론들이 모델의 calibration 성능에 악영향을 주고 있음이 밝혀졌고 이에 따른 해결책으로 inverse focal loss라는 새로운 손실함수 계산 법을 제안하고 있습니다. 이렇게 딥러닝 모델의 근본적인 현상을 분석하는 영역은 재밌으면서도 대단하게 느껴집니다. 덕분에 좋은 내용의 발표 잘 들었습니다. 감사합니다.
Yukyung Lee
2023-02-19 19:37
이번 세미나는 Rethinking Calibration of Deep Neural Networks: Do Not Be Afraid of Overconfidence를 주제로 진행되었습니다. Trustworthy AI를 지향하기 위해서 model 예측값의 confidence를 살펴보는것이 중요합니다. 특히 Reliable model을 생성하기 위해서는 model의 confident와 정확도가 함께 증가해야 하며, 반대의 상황일 경우에는 high uncertainty를 가진다고 볼 수 있습니다. 하지만 논문에 따르면 modern deep neural network는 overconfident한 경향이 있습니다. 따라서 강건한 모델을 만들기 위해서는 overconfident 상황에서 uncertainty를 calibration할 필요가 있습니다. prediction의 confidence는 true label의 Probability를 반영해야 하므로, accuracy와 confidence를 align하는 calibration이 중요합니다. "On Calibration of Modern Neural Network (ICML 2017)"에서 밝힌 바와 같이 다양한 post-hoc기법들은 model calibration 능력을 향상시켰습니다. 하지만 저자들은 보다 근본적으로 training과정에서 calibration을 할 수 있는 방법을 제안합니다. 이에앞서 label smoothing, Normalization, Focal Loss등 기존에 잘 알려진 regularization method들과 standard CE를 비교하며 training 과정 내에서 일어나는 regularization의 효과를 검증합니다. 다양한 비교 실험을 통해 regularization이 calibration에 도움이 되나, post-hoc calibration과 함께 사용되는 경우에 final calibration 성능을 저하시킴을 확인할 수 있었습니다. 제안하는 방법은 inverse focal loss로 정분류되는 easy sample에 더욱 집중하게 학습됩니다. 해당 loss를 통해 모델의 confidence는 증가하지만 easy sample과 hard sample을 구별하는 정보가 손실되지 않으므로 post-hoc calibration과 함께 사용될 수 있었습니다. 세미나 이후 저자의 발표영상도 보게 되었는데, 문제를 제기하고 원인을 분석하는 논문의 흐름을 보고 감탄했습니다. 좋은 논문 발표 감사합니다.
Seonggye Lee
2023-02-21 14:25
본 세미나에서는 Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence이라는 주제의 논문에 대한 리뷰를 진행하였습니다. 해당 세미나를 통해 calibration performance에 대한 정확한 이해를 할 수 있었습니다. Calibration이라는 단어는 논문에 자주 등장하는 단어이지만, 이 단어 자체에 대해 깊게 파보았던 경험은 사실 없었기 때문에 굉장히 유익한 시간이었습니다. 결국 본 논문에서 언급하고 있는 calibration이란 모델의 confidence score와 실제 정답의 분포를 유사하게 만들어주는 방법론을 의미합니다. 기존의 model based calibration method의 경우 딥러닝 모델이 overconfidence output을 도출하지 못하도록 regularizatrion loss를 통해 제안되었습니다. 하지만 이는 모델의 내재적인 calibration performance를 보완하는 방법이 아님을 실험을 통해 증명하였습니다. 이를 해결하기 위해 inverse focal loss를 제안하여 해당 문제를 해결하였습니다. 딥러닝 모델의 근본적인 고찰을 할 수 있었던 세미나 였습니다. 모델을 분석하고 문제를 찾고 실험을 통해 이를 해결하는 과정이 인상적이었던 논문이었습니다. 좋은 발표 감사합니다.
Yonggi Jeong
2023-02-21 16:51
이번 세미나에선 Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence 라는 연구에 대해 소개되었습니다. Confidence Calibration은 딥러닝 모델의 overconfidence 문제를 완화하고 softmax output이 좀 더 실제 확률에 가까운 값을 갖도록 하기 위한 연구 분야 입니다. 기존 Calibration 방법론에는 학습된 모델의 confidence에 후처리를 가하는 post-hoc calibration과 모델 학습부터 overconfidence를 방지하기 위한 regularization term을 추가한 model-based calibration이 있습니다. 기존 연구들은 각각 향상된 calibration 성능을 제시하고 있지만 본 논문에선 calibration 성능이 높은 것이 모델 자체의 성능이 높은 것을 의미하지는 않는다는 점을 model-based method의 한계로 지적하고 있습니다. 또한 실험을 통해 단순히 overconfidence를 방지하기 위해 regularization을 사용하는 것은 ECE 성능을 수치적으로만 향상시킬 뿐 calibration 성능을 향상시키지는 않음을 보이고 있고 이를 해결하기 위해 오히려 easy sample과 hard sample의 구분을 더 명확히 하기 위한 inverse focal loss를 제안하고 있습니다. 기존의 Focal loss와는 반대로 모델 기준에서 쉽고 어려운 데이터를 좀 더 명확히 하기 위한 inverse focal loss가 오히려 calibration 에 도움이 된다는 점이 인상적이었던 것 같습니다. 논문 설명 이후 adversarial detection에서의 연구 동향을 예로 문제를 찾고 해결하는 과정에 대한 발표자분의 견해까지 유익한 세미나였던 것 같습니다. 좋은 발표 감사합니다.
Jaehee Kim
2023-02-22 20:23
이번 세미나에서는 Modality 관계없이 딥러닝 모델들의 공통적 문제점이라 할 수 있는 Over Confidence를 완화하는 Calibration과 관련된 논문인 “Rethinking Calibration of Deep Neural Networks: Do Not Be Afraid of Overconfidence”이었습니다. 분류 태스크를 수행하는 딥러닝 모델들은 일반적으로 Cross Entropy를 Loss로 학습이 진행되고, 이로인해 실제 모델이 예측한 클래스가 정답일 가능성보다 높게 Confidence를 부여하는 문제점이 존재합니다. 이는 모델의 Confidence를 bin으로 나타내어 bin 별 실제 정확도를 측정하는 Reliability Diagrams과 이를 정량적으로 나타내는 ECE를 통해 평가됩니다. 이때 Over Confident 문제를 완화하기 위해 크게 학습된 모델의 예측 분포에 대한 후처리를 사용하는 post-hoc calibration 방법론과, 학습과정에서 직접적으로 confidence에 대한 regularization을 가하는 Model Regularization 방법론이 존재합니다. 해당 논문에서는 이러한 두 방법론을 동시에 사용할 경우 calibration 성능에 악영향을 미친다는 점을 실험을 통해 증명하고, 학습과정 중 ECE의 변화를 관찰하여, ECE가 실제론 calibration 성능을 대변할 수 없고, Calibration은 오히려 모델의 각 Instance에 대한 학습이 어려운 정도를 수치화해야한다 점을 해석하고 있습니다. 이를 이용하여 모델이 학습 후반부에 정분류하는 easy sample에 오히려 학습 가중치를 높혀, post-hoc calibration 효과를 증대할 수 있는 inverse focal loss를 제안합니다. Calibration이라는 분야가 최근 NLP에서도 LLM이 매우 Over Confident한 모습을 보여주면서 Unlearning과 같은 분야와 연결되는 상황에서 실제 Calibration이 의미해야 하는 방향을 제시하는 매우 흥미로운 논문이었습니다. 한 분야에서 널리 사용되는 평가 지표가 상당히 불안정할 수 있다는 점을 다시한번 상기할 수 있는 좋은 세미나였던 것 같습니다. 감사합니다.
JoongHoon Kim
2023-02-22 22:19
이번 세미나에서는 Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence라는 논문을 다루었습니다. 딥러닝 모델에 기반하여 실제 output을 활용할 때, 모델의 uncertainty를 정확하게 측정하는 것은 매우 중요합니다. 이러한 관점에서 신뢰성이 높은 딥러닝 모델은 예측 결과에 대한 confidence가 높고 uncertainty가 높은 모델의 경우에는 예측 결과에 대한 confidence가 낮다고 간주되어 왔습니다. 이것을 기저로 하여 모델의 예측값에 대해 좀 더 confidence를 높이는 연구 분야가 model calibration이라고 할 수 있습니다. 하지만 논문의 저자들은 실험을 통해 over confidence의 정도가 model의 calibration performance와 직접적인 인과관계가 없다는 것을 실험적으로 증명하였습니다. 오히려 기존의 regularization 방법론들이 모델의 calibration performance에 악영향을 준다는 것을 증명하면서 inverse focal loss를 제안했습니다. 이 논문에서는 기존에 사람들이 통념적으로 가지고 있던 생각에 반문을 던지고 이에 대해 실험 결과로 증명하면서 논문의 주장을 뒷받침한 것이 인상적이었습니다. 또한 발표자분께서 본인의 경험을 토대로 한 견해를 공유해주셔서 정말 유익했던 세미나였습니다. 좋은 발표 감사합니다.
Hun Im
2023-02-23 01:14
이번 세미나에서는 모델 예측 결과의 불확실성에 대한 연구인 “Revisiting the Calibration of Modern Neural Networks에 대해 다뤄 주셨습니다. 해당 논문은 이전 연구들이 large model들의 overconfidence output을 도출한다는 결과에만 집중하고 있다는 점을 지적하며 calibration 성능이 좋다는 것의 본질에 대해 고찰하고자 합니다. 실험을 통해 기존의 calibration 방법론 들이 실질적으로 calibration performance에 좋은 영향을 끼치지 않았다고 이야기 하며, calibration performance의 본질은 easy sample과 hard sample을 잘 구분하는 것에 있다고 합니다. 그리고 이에 기반하여 학습 후반부에도 이미 정분류 하고 있는 easy sample에 대해 더욱 집중하도록 inverse focal loss를 제안합니다. 해당 논문은 기존에 알고 있던 해석, 관점에서 벗어나 본질적으로 들어가 밝히고자 하였으며 실험들을 통해 논리적으로 풀어내고 있기 때문에 Neurlips에 accept된게 아닌가 싶습니다. 더불어 발표자 분의 수치적인 성능에 치우치지 말고 본질적인 문제를 파악하고 이를 해결하는 데에 초점을 맞출 것이 필요하다는 말이 기억에 남으며 좋은 발표를 해주셨던 것 같습니다. 감사합니다.
Gunho No
2023-02-23 20:27
이번 세미나에서는 NIPS 2021에 게재된 Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence 논문을 소개해 주셨습니다. 본 논문이 다루는 Calibration은 딥러닝 모델들이 잘못된 정답을 산출하는 경우에도 지나치게 높은 confidence를 보이는 경우, 적절한 조작을 통해 overconfident한 상황을 개선하기 위한 일반적인 방법론을 의미합니다. Calibration에는 크게 학습과정에서 model이 overconfidence output을 산출하지 못하도록 제한하는 model regularization 계열의 방법론과 산출된 output 대한 후처리를 통한 Post-hoc Calibration 방법론이 있습니다. 일반적으로는 두 계열의 방법론 모두가 사용이 되어 왔으나, 논문에서는 실험을 통해 model regularization 계열의 방법들은 오히려 Calibration 성능에 악영향을 준다는 것을 밝힙니다. 추가로 실험 결과를 통해 post-hoc calibration의 경우 기존 CE loss 기반의 딥러닝 모델에서 확실한 Calibration 성능 개선이 있음을 확인하고, calibration performance가 easy sample과 hard sample을 잘 구분하는 것에 좌우된다는 것을 발견했습니다. 이런 발견을 배경으로 논문에서는 easy sample과 hard sample을 잘 구분할 수 있는 새로운 loss인 inverse focal loss를 제안합니다. 이름에서 알 수 있듯이 일반적으로 학습이 비교적 쉬운 다수 class를 학습과정에서 제외하는 focal loss와 반대로, 정 분류되는 쉬운 sample에 집중하도록 하는 것입니다. 결과 학습 후반부에도 이미 정분류하고 있는 easy sample에 대해 더욱 집중할 수 있게 되기 때문에 모델 output의 confidence는 더욱 증가하지만 easy sample과 hard sample을 구별하는 정보는 손실되지 않을 수 있습니다. 즉, post-hoc calibration을 적용하기 좋은 결과를 얻게 되는 것으로 목적하는 바를 이룰 수 있게 됩니다. Calibration 분야는 window를 기반의 시계열 모델들에서 output을 각 시점의 것으로 변환하는 과정에서 사용하는 것 정도로 알고는 있었지만, 이번 논문에서처럼 근본적인 원리와 그를 개선하기 위한 loss 연구는 처음 보았습니다. 새로운 분야임에도 알기 쉽게 설명해 주셔서 더 유익한 세미나였습니다. 좋은 발표 감사합니다.
Sunwoo Kim
2023-02-23 21:52
이번 세미나에서는 Rethinking Calibration of Deep Neural Networks: Do Not Be Afraid of Overconfidence 논문을 다루어 주셨습니다. 본 논문에서는 딥러닝 모델의 예측이 불확실한 상황에서 모델과 관련된 정보를 제공하고자 하고 있습니다. 한가지 방안으로는 모델의 confidence output과 실제 확률이 일치하도록 교정하는 calibration이 있습니다. calibration 성능을 높이는 방안으로는 Post-hoc Calibration과 Model Regularization이 있는데 Post-hoc Calibration에는 Temperature scaling, Histogram binning 등이 존재합니다. 하지만 기존의 모델 기반 calibration 방법론들의 경우 overconfidence output에 대한 부분에만 초점을 두어 calibration 성능이 증가할 수 밖에 없는 구조적인 한계점이 있었습니다. 따라서 calibration 성능의 의미에 대한 구체적인 분석이 필요해졌고 본 논문에서는 calibration의 본질적인 의미를 알고자 하고 있습니다. 실험 결과에서 기존의 regularization 방법론들은 오히려 모델의 calibration 성능에 악영향을 준다는 사실을 알 수 있었습니다. 또한 본 논문에서는 학습 후반부에도 정분류하고 있는 쉬운 샘플에 더욱 집중할 수 있는 inverse focal losss를 제안하였습니다. 결론적으로 calibration의 의미에 대해 ECE(Expected Calibration Error)라는 수치적인 값이 아닌 모델의 confidence가 해당되는 샘플의 불확실성을 얼마나 대표할 수 있는가로 정리하였습니다. 본격적으로 논문의 내용을 다루기에 앞서 각각의 방법론들에 대해 상세히 background를 짚고 넘어가 주셔서 이해에 많은 도움이 되었습니다. 좋은 발표 감사합니다!
SeongHee Hong
2023-02-24 01:38
이번 세미나에서는 “Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence”라는 연구를 소개해 주셨습니다. 해당 연구는 기존 Model-based Calibration 연구들이 딥러닝 모델이 Overconfidence한 Output을 도출한다는 결과에만 집중하고 있어 Regularization Loss를 추가하는 방법론을 중심으로 Calibration 성능의 본질에서 벗어난 방향으로 진행되어 왔음을 문제로 삼고 있습니다. 기존 Model-based Calibration 방법론들에 대해서 실험을 진행하고 Post-hoc Calibration 기법을 적용했을 때의 결과와 비교하는 실험을 했습니다. 그 결과 Label Smoothing, L1 Norm 등 Model에 Regularization을 주면서 Post-hoc Calibration 방법론을 적용할 경우 오히려 Calibration Performance에 악영향을 끼친다는 것을 확인할 수 있었습니다. 해당 연구에서는 Calibration 성능의 본질에 대해 고찰하기 위해 Temperature Scaling을 적용했을 때, 각 Epoch 마다 Expected Calibration Error(ECE)의 변화를 실험했습니다. 그 결과 Calibration의 본질은 ECE라는 Metric으로 대변되는 것이 아니라 Model의 Confidence가 얼마나 해당 Sample의 Hardness를 잘 대변하는가 즉, Calibration의 본질은 Easy Sample과 Hard Sample을 잘 구분하는 것에 있다는 인사이트를 보였습니다. 논문들을 보게 되면서 다수의 선행 연구들이 주장하는 공통된 의견은 자연스레 마치 공리처럼 받아들이게 될 때가 있는데, 해당 세미나를 통해 때로는 당연하게 받아들여지는 이론이나 연구의 흐름에도 때로는 의구심을 가져보아야 할 필요가 있다는 생각이 들었습니다. 딥러닝 모델의 Overconfidence 그리고 Calibration에 대한 새로운 시야를 얻을 수 있었던 유익한 세미나였습니다. 좋은 발표 감사드립니다.
Jinwoo Park
2023-02-24 02:20
이번 세미나는 Rethinking Calibration of Deep Neural Networks: Do Not Be Afraid of Overconfidence 논문을 바탕으로 진행되었습니다. 해당 논문은 Model safety관점에서 문제를 제기하고 있는데, 이는 딥러닝 모델들이 발전함에 따라 다양한 분야에서 좋은 성능을 보일 수 있게 되었지만, 해당 모델의 예측이 틀렸을 경우에 대한 예측이 부족하다는 점을 지적하며, 모델의 예측이 불확실할 경우 이에 대한 정보를 충분히 제공할 수 있어야 한다고 말하고 있습니다. 이에 딥러닝 모델의 Confidence output값이 실제 확률과 일치하도록 교정하는 Model calibration 관점에서 해당 문제에 접근하고 있었습니다. 모델의 Calibration 성능을 높이기 위한 방법론으로는 Training 된 모델의 output에 후처리를 가하여 Calibration Performance를 향상 시키는 Post-hoc Calibration과 Model이 너무 overconfidence한 output을 산출하지 못하도록 학습 과정에서 Regularization을 가하는 Model Regularization이 존재하는데, 해당 논문에서는 Empirical한 비교를 위하여 다양한 실험을 진행하고 있습니다. 이때, 놀랍게도 Model에 Regularization을 가해준 경우에 Post-hoc calibaraion까지 적용한다면 성능이 더 떨어지는 것을 확인할 수 있었습니다. 이에, 해당 논문에서는 Calibration의 본질에 맞는 Inverse focal loss를 제안합니다. 이는 Calibaration performance의 본질인 Easy sample과 Hard sample을 잘 구분하도록 설계된 loss라고 볼 수 있습니다. 결국 이 Loss를 통하여 Easy sample과 Hard sample을 구별하는 정보가 손실되지 않게 함으로써, 성능을 보장하지는 않지만, post-hoc calibaration과 같이 사용할 수 있게 되었습니다. 정말 중요하지만, 한 번도 주의 깊게 생각해보지 않은 Model safety 라는 분야에 대해서 깊게 생각해볼 수 있었던 정말 좋은 세미나였던 것 같습니다. 좋은 발표 정말 감사드립니다.
Suzie Oh
2023-02-24 22:28
이번 세미나는 NeruIPS 2021에 게재된 Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence 논문으로 진행되었습니다. Model Calibration이란 딥러닝 모델의 confidence output 값이 실제 확률과 일치하도록 교정하는 방법으로, Calibration Performance는 Reliability Diagrams과 Expected Calibration Error(ECE)로 측정됩니다. 더욱 고도화된 모델일수록 over confidence output을 도출하는 경향으로 인해 Calibration Performance가 낮아진다는 기존 연구에 따라 이후 연구들에선 Calibration Performance을 높이기 위해 다양한 regularization 기법들을 도입했는데, 해당 논문에선 오히려 기존의 regularization 기법들이 모델의 Calibration Performance에 좋지 않은 영향을 끼친다는 것을 실험적으로 증명했습니다. 또한, Calibration Performance가 결국 easy sample과 hard sample을 더욱 잘 구분하는 능력에 달려있다는 실험 결과를 토대로 학습 후반부에도 이미 정분류하고 있는 easy sample에 대해 더욱 집중하도록 하는 inverse focal loss를 제안하여 Calibration Performance를 향상시키는 결과를 보였습니다. Calibration이란 개념 자체를 해당 세미나를 통해 처음 접했음에도 용어부터 자세히 설명해주셔서 이해에 도움이 많이 된 것 같습니다. 좋은 발표 감사합니다.
Hyeongwon Kang
2023-02-25 21:57
이번 세미나는 ‘Rethinking Calibration of Deep Neural Networks: Do Not Be Afraid of Overconfidence’을 주제로 진행되었습니다. 딥러닝 모델이 점점 large 모델이 제안됨에 따라 높은 성능을 달성하지만 over confidencce output을 도출하는 경향이 강해지면서 calibration 관점에서 저조한 성능을 달성하는 문제점이 있습니다. 이에 calibration performance를 높이기 위해 여러 기법들이 고안되었지만 기존의 model based calibration method들은 결국 딥러닝 모델이 over confidence output을 도출한다는 결과에만 집중하고 수치적으로만 calibration performance가 높아지는 결과를 보였습니다. 본 논문은 이에 calibration 성능이 좋다는 것의 본질이 무엇인지 확인하는 것에 집중하고 있습니다. 본 논문에서 실험들을 통해 regularization 방법론들이 오히려 calibration performance에 악영향을 주는 것을 확인하였고 inverse focal loss를 제안하였습니다. Inverse focal loss는 easy sample과 hard sample을 잘 구분하는 것을 목표로 easy sample에 더욱 집중하도록하는 방법입니다. 기존의 논문들이 본질적인 해결법이 아닌 단순히 평가 수치를 높이는 방식으로 접근하고 있다는 주장에 대해 크게 와 닿았던것 같습니다. 제가 time series anomaly detection 연구를 수행하면서 해당 연구에 point adjusted f1 score를 사용하는 것과 유사하다고 생각하였습니다. 따라서 본 세미나를 공감하면서 재밌게 들을 수 있었던 것 같습니다. 좋은 발표 감사합니다.
Heejeong Choi
2023-03-08 15:33
금일 세미나는 "Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence"라는 주제로 진행되었습니다. 본 발표에서 소개된 논문은 기존에 제안된 model regularization 기반 방법론들이 model calibration에 부정적인 영향을 미친다는 점을 실험적으로 증명하고, calibration 성능을 향상시키기 위한 inverse focal loss를 제안하였습니다. 개인적으로 연구를 수행 할수록 기존 방법론들의 한계점을 실험적으로 증명하고 제안 방법론의 아이디어에 대한 입증을 실험적으로 증명하는 것이 매우 중요하고 어렵다는 생각이 많이 드는데, 본 논문은 이러한 부분을 매우 잘 수행했다는 생각이 들었습니다. 특히 일반적으로 많은 논문들에서는 기존 방법론들의 한계점을 이론적으로만 지적하고 넘어가는 경우가 많은데 본 논문에서는 emphirical comparison을 통해 기존 방법론들이 model calibration에 악영향을 미친다는 것을 증명한 점이 인상 깊었습니다. 연구를 수행함에 있어 중요하지만 많이 간과하는 점에 대해 배울 수 있는 좋은 논문이었습니다. 좋은 발표 감사합니다.
Jungho Lee
2023-03-09 23:50
이번 세미나는 calibration 관련 논문인 "Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence"에 대해 소개했습니다. calibration은 모델의 output prediction이 실제 확률값과 일치하도록 교정하는 작업을 의미하는데 이 논문에서는 calibration과 관련된 딥러닝 모델의 본질적인 성능에 대한 의미를 밝혔습니다. 실제로 수치적인 성능 지표가 전부가 아니였고, 결국 calibration을 잘 한다는 것은 easy sample과 hard sample을 잘 구분하는 것에 있다는 설명이 크게 인상 깊었던 것 같습니다. 세미나 준비하시느라 고생 많으셨습니다.
이번 세미나에서는 딥러닝 모델의 학습 기법(technique) 중 하나인 calibration에 대해서 다루어졌습니다. 평소 calibration이라는 단어는 자주 접했지만 정확한 의미는 모르고 있었기에 관심있게 경청했습니다. 우선 calibration이라는 것은 모델의 출력값이라할 수 있는 confidence score 값이 정답의 분포와 일치하도록 교정하는 작업 혹은 과정을 의미합니다. 딥러닝 모델의 기존 문제는 overconfident 하다는 점이라고 합니다. 가령 이중분류를 진행할 때 실제 정답은 긍정이지만 모델은 부정 90%, 긍정 10% 등의 예측을 한다는 점입니다. Calibration의 중요성은 모델의 예측 실패로부터 생성되는 많은 부작용 및 피해를 고려했을 때 더욱 커집니다. 당장 의학분야에서 병 진단 유무를 떠올린다면 쉽게 이해할 수 있습니다. 발표자분께서 설명해주셨듯이 calibration의 성능을 측정하는 지표와 calibration의 성능을 향상시킬 수 있는 여러 계열의 방법론들이 연구되어 오고 있습니다. 이 중 우리가 잘 알고 있는 정규화(regularization)는 한 갈래를 맡고 있습니다. 하지만 소개해주신 논문의 결과에 따르면 오히려 정규화 방법론들이 모델의 calibration 성능에 악영향을 주고 있음이 밝혀졌고 이에 따른 해결책으로 inverse focal loss라는 새로운 손실함수 계산 법을 제안하고 있습니다. 이렇게 딥러닝 모델의 근본적인 현상을 분석하는 영역은 재밌으면서도 대단하게 느껴집니다. 덕분에 좋은 내용의 발표 잘 들었습니다. 감사합니다.
이번 세미나는 Rethinking Calibration of Deep Neural Networks: Do Not Be Afraid of Overconfidence를 주제로 진행되었습니다. Trustworthy AI를 지향하기 위해서 model 예측값의 confidence를 살펴보는것이 중요합니다. 특히 Reliable model을 생성하기 위해서는 model의 confident와 정확도가 함께 증가해야 하며, 반대의 상황일 경우에는 high uncertainty를 가진다고 볼 수 있습니다. 하지만 논문에 따르면 modern deep neural network는 overconfident한 경향이 있습니다. 따라서 강건한 모델을 만들기 위해서는 overconfident 상황에서 uncertainty를 calibration할 필요가 있습니다. prediction의 confidence는 true label의 Probability를 반영해야 하므로, accuracy와 confidence를 align하는 calibration이 중요합니다. "On Calibration of Modern Neural Network (ICML 2017)"에서 밝힌 바와 같이 다양한 post-hoc기법들은 model calibration 능력을 향상시켰습니다. 하지만 저자들은 보다 근본적으로 training과정에서 calibration을 할 수 있는 방법을 제안합니다. 이에앞서 label smoothing, Normalization, Focal Loss등 기존에 잘 알려진 regularization method들과 standard CE를 비교하며 training 과정 내에서 일어나는 regularization의 효과를 검증합니다. 다양한 비교 실험을 통해 regularization이 calibration에 도움이 되나, post-hoc calibration과 함께 사용되는 경우에 final calibration 성능을 저하시킴을 확인할 수 있었습니다. 제안하는 방법은 inverse focal loss로 정분류되는 easy sample에 더욱 집중하게 학습됩니다. 해당 loss를 통해 모델의 confidence는 증가하지만 easy sample과 hard sample을 구별하는 정보가 손실되지 않으므로 post-hoc calibration과 함께 사용될 수 있었습니다. 세미나 이후 저자의 발표영상도 보게 되었는데, 문제를 제기하고 원인을 분석하는 논문의 흐름을 보고 감탄했습니다. 좋은 논문 발표 감사합니다.
본 세미나에서는 Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence이라는 주제의 논문에 대한 리뷰를 진행하였습니다. 해당 세미나를 통해 calibration performance에 대한 정확한 이해를 할 수 있었습니다. Calibration이라는 단어는 논문에 자주 등장하는 단어이지만, 이 단어 자체에 대해 깊게 파보았던 경험은 사실 없었기 때문에 굉장히 유익한 시간이었습니다. 결국 본 논문에서 언급하고 있는 calibration이란 모델의 confidence score와 실제 정답의 분포를 유사하게 만들어주는 방법론을 의미합니다. 기존의 model based calibration method의 경우 딥러닝 모델이 overconfidence output을 도출하지 못하도록 regularizatrion loss를 통해 제안되었습니다. 하지만 이는 모델의 내재적인 calibration performance를 보완하는 방법이 아님을 실험을 통해 증명하였습니다. 이를 해결하기 위해 inverse focal loss를 제안하여 해당 문제를 해결하였습니다. 딥러닝 모델의 근본적인 고찰을 할 수 있었던 세미나 였습니다. 모델을 분석하고 문제를 찾고 실험을 통해 이를 해결하는 과정이 인상적이었던 논문이었습니다. 좋은 발표 감사합니다.
이번 세미나에선 Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence 라는 연구에 대해 소개되었습니다. Confidence Calibration은 딥러닝 모델의 overconfidence 문제를 완화하고 softmax output이 좀 더 실제 확률에 가까운 값을 갖도록 하기 위한 연구 분야 입니다. 기존 Calibration 방법론에는 학습된 모델의 confidence에 후처리를 가하는 post-hoc calibration과 모델 학습부터 overconfidence를 방지하기 위한 regularization term을 추가한 model-based calibration이 있습니다. 기존 연구들은 각각 향상된 calibration 성능을 제시하고 있지만 본 논문에선 calibration 성능이 높은 것이 모델 자체의 성능이 높은 것을 의미하지는 않는다는 점을 model-based method의 한계로 지적하고 있습니다. 또한 실험을 통해 단순히 overconfidence를 방지하기 위해 regularization을 사용하는 것은 ECE 성능을 수치적으로만 향상시킬 뿐 calibration 성능을 향상시키지는 않음을 보이고 있고 이를 해결하기 위해 오히려 easy sample과 hard sample의 구분을 더 명확히 하기 위한 inverse focal loss를 제안하고 있습니다. 기존의 Focal loss와는 반대로 모델 기준에서 쉽고 어려운 데이터를 좀 더 명확히 하기 위한 inverse focal loss가 오히려 calibration 에 도움이 된다는 점이 인상적이었던 것 같습니다. 논문 설명 이후 adversarial detection에서의 연구 동향을 예로 문제를 찾고 해결하는 과정에 대한 발표자분의 견해까지 유익한 세미나였던 것 같습니다. 좋은 발표 감사합니다.
이번 세미나에서는 Modality 관계없이 딥러닝 모델들의 공통적 문제점이라 할 수 있는 Over Confidence를 완화하는 Calibration과 관련된 논문인 “Rethinking Calibration of Deep Neural Networks: Do Not Be Afraid of Overconfidence”이었습니다. 분류 태스크를 수행하는 딥러닝 모델들은 일반적으로 Cross Entropy를 Loss로 학습이 진행되고, 이로인해 실제 모델이 예측한 클래스가 정답일 가능성보다 높게 Confidence를 부여하는 문제점이 존재합니다. 이는 모델의 Confidence를 bin으로 나타내어 bin 별 실제 정확도를 측정하는 Reliability Diagrams과 이를 정량적으로 나타내는 ECE를 통해 평가됩니다. 이때 Over Confident 문제를 완화하기 위해 크게 학습된 모델의 예측 분포에 대한 후처리를 사용하는 post-hoc calibration 방법론과, 학습과정에서 직접적으로 confidence에 대한 regularization을 가하는 Model Regularization 방법론이 존재합니다. 해당 논문에서는 이러한 두 방법론을 동시에 사용할 경우 calibration 성능에 악영향을 미친다는 점을 실험을 통해 증명하고, 학습과정 중 ECE의 변화를 관찰하여, ECE가 실제론 calibration 성능을 대변할 수 없고, Calibration은 오히려 모델의 각 Instance에 대한 학습이 어려운 정도를 수치화해야한다 점을 해석하고 있습니다. 이를 이용하여 모델이 학습 후반부에 정분류하는 easy sample에 오히려 학습 가중치를 높혀, post-hoc calibration 효과를 증대할 수 있는 inverse focal loss를 제안합니다. Calibration이라는 분야가 최근 NLP에서도 LLM이 매우 Over Confident한 모습을 보여주면서 Unlearning과 같은 분야와 연결되는 상황에서 실제 Calibration이 의미해야 하는 방향을 제시하는 매우 흥미로운 논문이었습니다. 한 분야에서 널리 사용되는 평가 지표가 상당히 불안정할 수 있다는 점을 다시한번 상기할 수 있는 좋은 세미나였던 것 같습니다. 감사합니다.
이번 세미나에서는 Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence라는 논문을 다루었습니다. 딥러닝 모델에 기반하여 실제 output을 활용할 때, 모델의 uncertainty를 정확하게 측정하는 것은 매우 중요합니다. 이러한 관점에서 신뢰성이 높은 딥러닝 모델은 예측 결과에 대한 confidence가 높고 uncertainty가 높은 모델의 경우에는 예측 결과에 대한 confidence가 낮다고 간주되어 왔습니다. 이것을 기저로 하여 모델의 예측값에 대해 좀 더 confidence를 높이는 연구 분야가 model calibration이라고 할 수 있습니다. 하지만 논문의 저자들은 실험을 통해 over confidence의 정도가 model의 calibration performance와 직접적인 인과관계가 없다는 것을 실험적으로 증명하였습니다. 오히려 기존의 regularization 방법론들이 모델의 calibration performance에 악영향을 준다는 것을 증명하면서 inverse focal loss를 제안했습니다. 이 논문에서는 기존에 사람들이 통념적으로 가지고 있던 생각에 반문을 던지고 이에 대해 실험 결과로 증명하면서 논문의 주장을 뒷받침한 것이 인상적이었습니다. 또한 발표자분께서 본인의 경험을 토대로 한 견해를 공유해주셔서 정말 유익했던 세미나였습니다. 좋은 발표 감사합니다.
이번 세미나에서는 모델 예측 결과의 불확실성에 대한 연구인 “Revisiting the Calibration of Modern Neural Networks에 대해 다뤄 주셨습니다. 해당 논문은 이전 연구들이 large model들의 overconfidence output을 도출한다는 결과에만 집중하고 있다는 점을 지적하며 calibration 성능이 좋다는 것의 본질에 대해 고찰하고자 합니다. 실험을 통해 기존의 calibration 방법론 들이 실질적으로 calibration performance에 좋은 영향을 끼치지 않았다고 이야기 하며, calibration performance의 본질은 easy sample과 hard sample을 잘 구분하는 것에 있다고 합니다. 그리고 이에 기반하여 학습 후반부에도 이미 정분류 하고 있는 easy sample에 대해 더욱 집중하도록 inverse focal loss를 제안합니다. 해당 논문은 기존에 알고 있던 해석, 관점에서 벗어나 본질적으로 들어가 밝히고자 하였으며 실험들을 통해 논리적으로 풀어내고 있기 때문에 Neurlips에 accept된게 아닌가 싶습니다. 더불어 발표자 분의 수치적인 성능에 치우치지 말고 본질적인 문제를 파악하고 이를 해결하는 데에 초점을 맞출 것이 필요하다는 말이 기억에 남으며 좋은 발표를 해주셨던 것 같습니다. 감사합니다.
이번 세미나에서는 NIPS 2021에 게재된 Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence 논문을 소개해 주셨습니다. 본 논문이 다루는 Calibration은 딥러닝 모델들이 잘못된 정답을 산출하는 경우에도 지나치게 높은 confidence를 보이는 경우, 적절한 조작을 통해 overconfident한 상황을 개선하기 위한 일반적인 방법론을 의미합니다. Calibration에는 크게 학습과정에서 model이 overconfidence output을 산출하지 못하도록 제한하는 model regularization 계열의 방법론과 산출된 output 대한 후처리를 통한 Post-hoc Calibration 방법론이 있습니다. 일반적으로는 두 계열의 방법론 모두가 사용이 되어 왔으나, 논문에서는 실험을 통해 model regularization 계열의 방법들은 오히려 Calibration 성능에 악영향을 준다는 것을 밝힙니다. 추가로 실험 결과를 통해 post-hoc calibration의 경우 기존 CE loss 기반의 딥러닝 모델에서 확실한 Calibration 성능 개선이 있음을 확인하고, calibration performance가 easy sample과 hard sample을 잘 구분하는 것에 좌우된다는 것을 발견했습니다. 이런 발견을 배경으로 논문에서는 easy sample과 hard sample을 잘 구분할 수 있는 새로운 loss인 inverse focal loss를 제안합니다. 이름에서 알 수 있듯이 일반적으로 학습이 비교적 쉬운 다수 class를 학습과정에서 제외하는 focal loss와 반대로, 정 분류되는 쉬운 sample에 집중하도록 하는 것입니다. 결과 학습 후반부에도 이미 정분류하고 있는 easy sample에 대해 더욱 집중할 수 있게 되기 때문에 모델 output의 confidence는 더욱 증가하지만 easy sample과 hard sample을 구별하는 정보는 손실되지 않을 수 있습니다. 즉, post-hoc calibration을 적용하기 좋은 결과를 얻게 되는 것으로 목적하는 바를 이룰 수 있게 됩니다. Calibration 분야는 window를 기반의 시계열 모델들에서 output을 각 시점의 것으로 변환하는 과정에서 사용하는 것 정도로 알고는 있었지만, 이번 논문에서처럼 근본적인 원리와 그를 개선하기 위한 loss 연구는 처음 보았습니다. 새로운 분야임에도 알기 쉽게 설명해 주셔서 더 유익한 세미나였습니다. 좋은 발표 감사합니다.
이번 세미나에서는 Rethinking Calibration of Deep Neural Networks: Do Not Be Afraid of Overconfidence 논문을 다루어 주셨습니다. 본 논문에서는 딥러닝 모델의 예측이 불확실한 상황에서 모델과 관련된 정보를 제공하고자 하고 있습니다. 한가지 방안으로는 모델의 confidence output과 실제 확률이 일치하도록 교정하는 calibration이 있습니다. calibration 성능을 높이는 방안으로는 Post-hoc Calibration과 Model Regularization이 있는데 Post-hoc Calibration에는 Temperature scaling, Histogram binning 등이 존재합니다. 하지만 기존의 모델 기반 calibration 방법론들의 경우 overconfidence output에 대한 부분에만 초점을 두어 calibration 성능이 증가할 수 밖에 없는 구조적인 한계점이 있었습니다. 따라서 calibration 성능의 의미에 대한 구체적인 분석이 필요해졌고 본 논문에서는 calibration의 본질적인 의미를 알고자 하고 있습니다. 실험 결과에서 기존의 regularization 방법론들은 오히려 모델의 calibration 성능에 악영향을 준다는 사실을 알 수 있었습니다. 또한 본 논문에서는 학습 후반부에도 정분류하고 있는 쉬운 샘플에 더욱 집중할 수 있는 inverse focal losss를 제안하였습니다. 결론적으로 calibration의 의미에 대해 ECE(Expected Calibration Error)라는 수치적인 값이 아닌 모델의 confidence가 해당되는 샘플의 불확실성을 얼마나 대표할 수 있는가로 정리하였습니다. 본격적으로 논문의 내용을 다루기에 앞서 각각의 방법론들에 대해 상세히 background를 짚고 넘어가 주셔서 이해에 많은 도움이 되었습니다. 좋은 발표 감사합니다!
이번 세미나에서는 “Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence”라는 연구를 소개해 주셨습니다. 해당 연구는 기존 Model-based Calibration 연구들이 딥러닝 모델이 Overconfidence한 Output을 도출한다는 결과에만 집중하고 있어 Regularization Loss를 추가하는 방법론을 중심으로 Calibration 성능의 본질에서 벗어난 방향으로 진행되어 왔음을 문제로 삼고 있습니다. 기존 Model-based Calibration 방법론들에 대해서 실험을 진행하고 Post-hoc Calibration 기법을 적용했을 때의 결과와 비교하는 실험을 했습니다. 그 결과 Label Smoothing, L1 Norm 등 Model에 Regularization을 주면서 Post-hoc Calibration 방법론을 적용할 경우 오히려 Calibration Performance에 악영향을 끼친다는 것을 확인할 수 있었습니다. 해당 연구에서는 Calibration 성능의 본질에 대해 고찰하기 위해 Temperature Scaling을 적용했을 때, 각 Epoch 마다 Expected Calibration Error(ECE)의 변화를 실험했습니다. 그 결과 Calibration의 본질은 ECE라는 Metric으로 대변되는 것이 아니라 Model의 Confidence가 얼마나 해당 Sample의 Hardness를 잘 대변하는가 즉, Calibration의 본질은 Easy Sample과 Hard Sample을 잘 구분하는 것에 있다는 인사이트를 보였습니다. 논문들을 보게 되면서 다수의 선행 연구들이 주장하는 공통된 의견은 자연스레 마치 공리처럼 받아들이게 될 때가 있는데, 해당 세미나를 통해 때로는 당연하게 받아들여지는 이론이나 연구의 흐름에도 때로는 의구심을 가져보아야 할 필요가 있다는 생각이 들었습니다. 딥러닝 모델의 Overconfidence 그리고 Calibration에 대한 새로운 시야를 얻을 수 있었던 유익한 세미나였습니다. 좋은 발표 감사드립니다.
이번 세미나는 Rethinking Calibration of Deep Neural Networks: Do Not Be Afraid of Overconfidence 논문을 바탕으로 진행되었습니다. 해당 논문은 Model safety관점에서 문제를 제기하고 있는데, 이는 딥러닝 모델들이 발전함에 따라 다양한 분야에서 좋은 성능을 보일 수 있게 되었지만, 해당 모델의 예측이 틀렸을 경우에 대한 예측이 부족하다는 점을 지적하며, 모델의 예측이 불확실할 경우 이에 대한 정보를 충분히 제공할 수 있어야 한다고 말하고 있습니다. 이에 딥러닝 모델의 Confidence output값이 실제 확률과 일치하도록 교정하는 Model calibration 관점에서 해당 문제에 접근하고 있었습니다. 모델의 Calibration 성능을 높이기 위한 방법론으로는 Training 된 모델의 output에 후처리를 가하여 Calibration Performance를 향상 시키는 Post-hoc Calibration과 Model이 너무 overconfidence한 output을 산출하지 못하도록 학습 과정에서 Regularization을 가하는 Model Regularization이 존재하는데, 해당 논문에서는 Empirical한 비교를 위하여 다양한 실험을 진행하고 있습니다. 이때, 놀랍게도 Model에 Regularization을 가해준 경우에 Post-hoc calibaraion까지 적용한다면 성능이 더 떨어지는 것을 확인할 수 있었습니다. 이에, 해당 논문에서는 Calibration의 본질에 맞는 Inverse focal loss를 제안합니다. 이는 Calibaration performance의 본질인 Easy sample과 Hard sample을 잘 구분하도록 설계된 loss라고 볼 수 있습니다. 결국 이 Loss를 통하여 Easy sample과 Hard sample을 구별하는 정보가 손실되지 않게 함으로써, 성능을 보장하지는 않지만, post-hoc calibaration과 같이 사용할 수 있게 되었습니다. 정말 중요하지만, 한 번도 주의 깊게 생각해보지 않은 Model safety 라는 분야에 대해서 깊게 생각해볼 수 있었던 정말 좋은 세미나였던 것 같습니다. 좋은 발표 정말 감사드립니다.
이번 세미나는 NeruIPS 2021에 게재된 Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence 논문으로 진행되었습니다. Model Calibration이란 딥러닝 모델의 confidence output 값이 실제 확률과 일치하도록 교정하는 방법으로, Calibration Performance는 Reliability Diagrams과 Expected Calibration Error(ECE)로 측정됩니다. 더욱 고도화된 모델일수록 over confidence output을 도출하는 경향으로 인해 Calibration Performance가 낮아진다는 기존 연구에 따라 이후 연구들에선 Calibration Performance을 높이기 위해 다양한 regularization 기법들을 도입했는데, 해당 논문에선 오히려 기존의 regularization 기법들이 모델의 Calibration Performance에 좋지 않은 영향을 끼친다는 것을 실험적으로 증명했습니다. 또한, Calibration Performance가 결국 easy sample과 hard sample을 더욱 잘 구분하는 능력에 달려있다는 실험 결과를 토대로 학습 후반부에도 이미 정분류하고 있는 easy sample에 대해 더욱 집중하도록 하는 inverse focal loss를 제안하여 Calibration Performance를 향상시키는 결과를 보였습니다. Calibration이란 개념 자체를 해당 세미나를 통해 처음 접했음에도 용어부터 자세히 설명해주셔서 이해에 도움이 많이 된 것 같습니다. 좋은 발표 감사합니다.
이번 세미나는 ‘Rethinking Calibration of Deep Neural Networks: Do Not Be Afraid of Overconfidence’을 주제로 진행되었습니다. 딥러닝 모델이 점점 large 모델이 제안됨에 따라 높은 성능을 달성하지만 over confidencce output을 도출하는 경향이 강해지면서 calibration 관점에서 저조한 성능을 달성하는 문제점이 있습니다. 이에 calibration performance를 높이기 위해 여러 기법들이 고안되었지만 기존의 model based calibration method들은 결국 딥러닝 모델이 over confidence output을 도출한다는 결과에만 집중하고 수치적으로만 calibration performance가 높아지는 결과를 보였습니다. 본 논문은 이에 calibration 성능이 좋다는 것의 본질이 무엇인지 확인하는 것에 집중하고 있습니다. 본 논문에서 실험들을 통해 regularization 방법론들이 오히려 calibration performance에 악영향을 주는 것을 확인하였고 inverse focal loss를 제안하였습니다. Inverse focal loss는 easy sample과 hard sample을 잘 구분하는 것을 목표로 easy sample에 더욱 집중하도록하는 방법입니다. 기존의 논문들이 본질적인 해결법이 아닌 단순히 평가 수치를 높이는 방식으로 접근하고 있다는 주장에 대해 크게 와 닿았던것 같습니다. 제가 time series anomaly detection 연구를 수행하면서 해당 연구에 point adjusted f1 score를 사용하는 것과 유사하다고 생각하였습니다. 따라서 본 세미나를 공감하면서 재밌게 들을 수 있었던 것 같습니다. 좋은 발표 감사합니다.
금일 세미나는 "Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence"라는 주제로 진행되었습니다. 본 발표에서 소개된 논문은 기존에 제안된 model regularization 기반 방법론들이 model calibration에 부정적인 영향을 미친다는 점을 실험적으로 증명하고, calibration 성능을 향상시키기 위한 inverse focal loss를 제안하였습니다. 개인적으로 연구를 수행 할수록 기존 방법론들의 한계점을 실험적으로 증명하고 제안 방법론의 아이디어에 대한 입증을 실험적으로 증명하는 것이 매우 중요하고 어렵다는 생각이 많이 드는데, 본 논문은 이러한 부분을 매우 잘 수행했다는 생각이 들었습니다. 특히 일반적으로 많은 논문들에서는 기존 방법론들의 한계점을 이론적으로만 지적하고 넘어가는 경우가 많은데 본 논문에서는 emphirical comparison을 통해 기존 방법론들이 model calibration에 악영향을 미친다는 것을 증명한 점이 인상 깊었습니다. 연구를 수행함에 있어 중요하지만 많이 간과하는 점에 대해 배울 수 있는 좋은 논문이었습니다. 좋은 발표 감사합니다.
이번 세미나는 calibration 관련 논문인 "Rethinking Calibration of Deep Neural Networks: Do Not Afraid of Overconfidence"에 대해 소개했습니다. calibration은 모델의 output prediction이 실제 확률값과 일치하도록 교정하는 작업을 의미하는데 이 논문에서는 calibration과 관련된 딥러닝 모델의 본질적인 성능에 대한 의미를 밝혔습니다. 실제로 수치적인 성능 지표가 전부가 아니였고, 결국 calibration을 잘 한다는 것은 easy sample과 hard sample을 잘 구분하는 것에 있다는 설명이 크게 인상 깊었던 것 같습니다. 세미나 준비하시느라 고생 많으셨습니다.