[Paper Review] KAN: Kolmogorov-Arnold Networks

Paper Review
작성자
Jaewon Cheon
작성일
2024-11-28 02:38
조회
1181
1. 논문 제목
2. Overview
  • MLP의 대안적 구조인 KAN을 제시
    • Kolmogorov-Arnold Network의 고질적인 문제였던 Compositional Function들의 Pathological Behavior를 고치기 위한 Generalization
  • Accurate하면서 Interpretable한 AI Model’s Foundational Building Block으로서의 가능성을 제시
3. 발표자료 및 발표영상
  • 발표자료 : 하단 첨부
  • 발표영상 : 추후 첨부
전체 14

  • 2024-12-03 10:13

    본 세미나는 MLP의 대안적 구조인 KAN을 제안한 논문을 중심으로 진행되었습니다. KAN은 한 층의 Hidden layer와 Non-linear activation을 통해 continuous function으로 근사하는 MLP와 다르게, 모든 Continuous한 함수에 대해 단변량 함수가 존재한다는 가정으로 summation을 진행하고 있습니다. 해당 구조의 장점은 symbolic representation 가능성이고, 이로 인한 해석가능성입니다. 개인적인 생각으로 성능과 구조적 복잡성도 모두 MLP보다 낮지만, Plausible하게 결과를 통해 이유를 추론할 수 있다는 게 큰 장점이라고 생각합니다. 연구라는 게 당연히 기존 문제점을 fit하게 해결하는 방향을 제안하는 게 효과적이지만, 도전적인 분야에서 새로운 구조를 제안하는 것 만으로도, 그로 인해 새로운 관점을 제안하는 것 만으로도 가치가 있다고 생각되는 논문이었습니다. 좋은 발표 준비해주셔서 감사합니다.


  • 2024-12-07 13:56

    이번 세미나에서는 MLP의 대안적 구조로 제시된 KAN(Kolmogorov-Arnold Networks) 논문에 대하여 발표해 주셨습니다. 해당 논문의 주요 장점으로는 높은 해석 가능성과 더욱 정교한 Function Approximation이 가능하다는 점이 있습니다. KAN은 MLP의 Pathological Behavior 문제를 개선한 일반화된 구조로, 복잡한 함수들의 조합적 동작을 모델링함으로써 기존 MLP의 한계를 넘고자 했습니다. 특히, 이 네트워크는 더 나은 Scaling Law를 가지며, 각 변수의 변화를 Symbolic하게 모델링하고, 변수 간의 상호작용은 간단한 Summation으로 처리함으로써 높은 해석 가능성을 제공하였습니다. 이러한 방법은 Transparency와 Reliability를 크게 향상시킬 수 있다는 점에서 매우 인상깊었습니다. 복잡한 함수의 Symbolic Representation 가능성과 그로 인한 해석 가능성은 특히 인상적이었으며, 이는 고도로 정교한 AI 모델의 기초 구조물로서 KAN의 가능성을 시사하였다고 생각합니다. 흥미로운 주제로 좋은 발표 준비해 주셔서 감사합니다.


  • 2024-12-07 17:13

    금일 세미나는 "KAN: Kolmogorov-Arnold Networks"를 중점적으로 진행되었습니다. 기존에 저희가 사용하는 Multi-layer perceptron은 한 층의 Hidden layer와 그에 대한 non-linear activation function만 존재한다면 어떠한 Continuous function도 근사할 수 있다는 Universal Approximation Theorem을 바탕으로 이미 이론적으로 증명이 되어 있는 방법론입니다. 그러나 이는 결국 Continuous function이 존재할 수 있다는 존재성만을 보장하며, layer의 width를 무한정 늘릴 수 없기에 결국 이론적인 방법 중하나이며, 이에 오늘날 대부분의 DL 방법론들은 '넓게'가 아닌 '깊게' layer를 쌓고 있습니다. 이때, 제안 연구에서 말하는 Kolmogorov-Arnold Networks 역시 0과 1사이의 실수값을 가지는 Continuous function에 대해 어떠한 단변량의 함수가 존재한다는 Kolmogorov-arnold Representation Theorem을 기반으로 하는 방법론입니다. 이때 n 개의 변수간 정보 발생은 모든 합으로만 이루어지고, 그 외의 변환은 모두 단변수에서 실행되게 됩니다. 이에 KAN에서는 모든 변환을 d-dimensional의 Spline을 통해서 근사하고자 하는 방법으로, 다양한 Spline 함수들의 제어점을 Learnable한 파라미터로 이용하여 구성됩니다. 해당 방법론의 가장 큰 장점 중 하나는 궁극적으로 모델로써 일반화하고자 하는 어떠한 함수가 존재할 때, 해당 함수가 무엇인지 알 수있다는 것입니다. 큰 내용은 다를 수 있지만, 궁극적으로 동역학에서의 Koopman Theory와도 어느 정도 일맥상통하다는 생각이 들었으며, 다양한 함수를 통하여 하나의 연속 함수를 근사한다는 것이 Fourier thoery와도 비슷하다는 생각이 들어, 시계열에서는 해당 연구를 더 발전시켜나갈 수 있는 여지가 많다고 느껴졌습니다. 좋은 발표 정말 감사드립니다. 상세하게 설명해주신 덕분에 쉽게 이해할 수 있었습니다.


  • 2024-12-08 21:59

    금일 세미나는 사전에 정의된 단변량 함수들 조합을 통해 목적함수를 탐색하는 “KAN: Kolmogorov-Arnold Networks“을 중심으로 진행되었습니다. 현재 널리 활용되는 DNN 모델은 넓은 범용성과 비교적 낮은 연산 비용이라는 장점이 있지만, 적합된 모델을 통해 현실 세계에 대한 해석이 거의 불가능에 가깝다는 문제가 있습니다. 이는 NLP나 Vision과 같은 연산 결과가 중요한 분야에서는 큰 문제가 되지 않지만, 물리학, 화학 등 해당 현상을 설명할 수 있는 수식을 도출하는 것이 중요한 분야에서는 매우 큰 제약으로 작용합니다. 이를 극복하기 위해 본 연구는 Kolmogorov-arnold representation theoremd에서 출발하여 목적함수를 단변량 함수들의 연산으로 표현하는 방식을 이용합니다. 특히 symbolic한 함수로 학습된 파라미터를 변환하는 과정이나 affine transformation을 추가적으로 수행하여 최종적인 수식을 획득하는 과정 등은 기존 DNN과 분명히 다른 접근 방식을 보이고 있습니다. 여전히 많은 연산량과 검증 과정에 대한 불확실성이 일부 남아있지만, 딥러닝을 통한 과학이 지속적으로 관심을 받는 상황에서 중요한 연구라 생각합니다. 좋은 발표 감사드립니다.


  • 2024-12-11 00:52

    이번 세미나에서는 "KAN: Kolmogorov-Arnold Networks"이라는 논문에 대한 소개를 중심으로 진행되었습니다. 본 논문에서는 Multi-Layer Perceptron(MLP)의 대안적 구조로 Kolmogorov-Arnold Network(KAN)를 제안하며, 특히 함수의 Symbolic Representation을 가능하게 하여 AI 모델의 해석 가능성을 높이는 점을 강조하였습니다. KAN은 기존의 MLP가 가진 고질적인 문제인 Pathological Behavior를 개선하기 위해, 각 변수의 변화를 단순한 합산으로 모델링하는 한편, 복잡한 함수의 조합적 동작을 가능하게 하는 구조를 제시합니다. 이를 통해, 해석 가능한 모델을 구축할 수 있는 장점을 보여주었습니다. 아직 MLP를 완전히 대체할 수 있는 구조는 아니지만, 기존 MLP가 가진 단점을 해결하기 위한 시작점이 될 수 있겠다 라는 생각을 하였습니다. 그것을 위해서는 KAN의 해석 가능성에 대한 설득이 더욱 필요할 것이라 생각합니다. 이해하기 어려운 개념일 수 있는데 핵심을 잘 설명해주셔서 너무 유익한 세미나가 되었습니다. 좋은 발표 준비해주셔서 감사합니다.


  • 2024-12-11 03:06

    이번 세미나에서는 MLP의 대안적 구조로 제시된 "KAN: Kolmogorov-Arnold Networks" 논문에 대해 다뤘습니다. KAN은 Kolmogorov-Arnold Representation Theorem을 기반으로, 복잡한 함수를 단변량 함수들의 조합으로 표현하는 방식을 제안하며, 이는 높은 해석 가능성을 제공합니다. 특히, 변수 간의 상호작용을 단순한 Summation으로 처리하고, 변환 과정을 Symbolic하게 표현할 수 있다는 점에서 기존 MLP 대비 명확한 차별점을 보입니다. 이 접근법은 모델의 결과를 Plausible하게 설명할 수 있도록 하며, 물리학 및 화학과 같은 해석이 중요한 응용 분야에서 큰 잠재력을 가집니다. 여전히 MLP를 대체하기에는 성능 및 연산 비용에서 개선이 필요하지만, Symbolic Representation과 Transparency 측면에서 새로운 방향성을 제시한 중요한 연구로 보입니다. 흥미로운 발표와 상세한 설명 덕분에 새로운 관점을 이해할 수 있었습니다. 좋은 발표 감사합니다!


  • 2024-12-11 22:03

    이번 세미나에서는 "KAN: Kolmogorov-Arnold Networks"에 대해 소개해주셨습니다. 이 연구는 MLP의 구조적 한계를 극복하기 위해 Kolmogorov-Arnold 정리를 활용하여 설계된 신경망입니다. 기존 MLP가 노드 기반의 고정 활성화 함수를 사용하는 반면, KAN은 엣지에 학습 가능한 활성화 함수를 적용하는 접근 방식을 채택하여 더욱 유연한 학습을 가능하게 합니다. KAN의 가장 독특한 특징은 가중치 매개변수를 spline으로 매개변수화된 단변량 함수로 대체하여 선형 가중치를 제거하고, 이를 통해 데이터 피팅과 편미분 방정식 해결에서 기존 MLP 대비 높은 정확도를 달성한 점입니다. 또한, 더 적은 매개변수를 사용하면서도 빠른 속도를 보여주었으며, 작은 규모로도 효율적인 학습 성능을 입증했습니다. 좋은 발표 감사드립니다.


  • 2024-12-15 15:13

    금일 세미나는 'KAN: Kolmogorov-Arnold Networks'라는 논문을 소개해 주셨습니다. KAN은 기존 MLP의 대안적 구조로, Kolmogorov-Arnold Representation Theorem을 기반으로 복잡한 함수를 단변량 함수들의 조합으로 표현할 수 있는 구조를 제안하고 있습니다. 특히, KAN의 가장 핵심적인 방법론적 특징은 각 변수를 Symbolic하게 모델링하면서도 변수 간의 상호작용을 Summation으로 단순화하여 연산 복잡성을 낮추고 있으며 또한, Spline 기반의 Learnable Parameters를 활용하여 데이터 피팅 및 복잡한 함수의 Approximation 문제에서 기존 MLP 대비 높은 해석 가능성을 제공한다는 장점을 가지고 있었습니다. 물리학에서 차용된 방법만큼 해석 가능성을 의도한 여러 가지 설계가 인상깊었고, 아직 MLP를 대체하기에는 많은 연구자들의 의구심을 하나씩 해결해 나가야 하는 것으로 이해하였지만 이러한 연구들이 진행되고 있다는 것 자체만으로도 새로운 방향성을 제시한 것 같아 의미있는 연구라고 생각이 들었습니다. 좋은 발표 감사합니다!


  • 2024-12-16 00:21

    이번 세미나는 MLP의 대안적 구조인 KAN: Kolmogorov-Arnold Networks를 중심으로 진행되었습니다. 기존 MLP가 Universal Approximation Theorem을 기반으로 연속 함수 근사에 강점을 가졌지만, 여전히 해석 가능성이 부족하고 구조적으로 비효율적인 면이 존재했습니다. KAN은 Kolmogorov-Arnold Representation Theorem을 활용하여 모든 연속 함수가 단변량 함수들의 합으로 표현될 수 있다는 점을 실용적으로 구현한 접근법입니다. 특히, Spline 기반의 학습 가능한 함수를 사용해 각 변수의 변화를 Symbolic하게 모델링하면서도, 변수 간의 상호작용을 단순한 Summation으로 처리한 것이 매우 인상적이었습니다. 이를 통해 해석 가능성과 모델의 투명성(Transparency)이 크게 향상되었으며, 복잡한 함수 근사에서도 기존 MLP 대비 강점을 보였다는 점이 중요하게 느껴졌습니다. 좋은 발표 준비해주셔서 감사합니다. 앞으로 KAN이 발전해나가는 과정이 기대됩니다!


  • 2024-12-17 10:49

    이번 세미나에서는 "KAN: Kolmogorov-Arnold Networks" 논문을 소개해주셨습니다. 이는 Multi-layer perceptron의 한계를 극복하기 위한 혁신적인 접근법이었습니다. Universal Approximation Theorem에 따르면 MLP는 하나의 은닉층과 비선형 활성화 함수만으로도 연속 함수를 근사할 수 있지만, 이는 단순히 존재 가능성만을 보여줄 뿐 실제 적용에는 한계가 있습니다.ㅊ KAN은 Kolmogorov-Arnold Representation Theorem을 기반으로, 0과 1 사이의 실수값을 가지는 연속 함수에 대해 새로운 접근 방식을 제시합니다. 특별히 주목할 만한 점은 n개 변수 간의 정보 교환이 단순 합산으로만 이뤄지고, 나머지 변환은 모두 단변수 차원에서 수행된다는 것입니다. 이러한 구조는 d-차원 Spline을 통해 구현되며, Spline 함수들의 제어점이 학습 가능한 파라미터로 활용됩니다. 이 방법론의 가장 큰 장점은 높은 해석 가능성과 정교한 함수 근사 능력입니다. 특히 복잡한 함수들의 조합적 동작을 Symbolic하게 모델링하면서도, 변수 간 상호작용은 단순 합산으로 처리함으로써 투명성과 신뢰성을 크게 향상시켰습니다. 이는 Koopman Theory나 Fourier Theory와도 일맥상통하는 면이 있어, 특히 시계열 분야에서 더 큰 발전 가능성을 보여줍니다. 좋은 발표 감사합니다.


  • 2024-11-29 00:59

    이번 세미나는 "KAN: Kolmogorov-Arnold Networks"라는 논문을 중심으로 진행되었습니다. 본 논문은 Kolmogorov-Arnold 표현 정리를 기반으로 한 새로운 신경망 구조를 제안하여, 복잡한 다변수 함수의 근사 문제를 효과적으로 해결한 점이 특징적입니다. Kolmogorov-Arnold 정리는 다변수 함수를 단일 변수 함수의 합으로 표현할 수 있음을 보장하며, 본 연구는 이를 활용해 학습 효율성을 극대화하는 네트워크 구조를 설계하였습니다. KAN의 주요 기여는 다변수 함수를 분해하여 단순하고 효율적인 학습을 가능케 하고, 기존 네트워크 대비 학습 복잡도를 줄이며 계산 효율성을 개선한 점입니다. 특히, 정리 기반의 구조적 설계로 인해 높은 근사 정확도를 달성하면서도 네트워크의 일반화 능력을 유지한 부분은 인상 깊었습니다. 다만 아직은 기존 방법론과 비교하기엔 실질적인 성능이 아쉬울 수는 있으나 새로운 접근 방식으로 향후 연구가 기대되는 부분이었습니다. 좋은 발표 감사합니다


  • 2024-11-28 17:34

    이번 세미나에서는 “KAN: Kolmogorov-Arnold Networks” 논문이 소개되었습니다. 이 연구는 Multi-layer Perceptron(MLP)의 한계를 극복하고, 연속 함수의 해석 가능성과 근사 능력을 동시에 향상시키기 위한 혁신적인 접근법을 제시합니다. 기존 MLP는 Universal Approximation Theorem에 따라 연속 함수를 근사할 수 있지만, 이는 단순히 가능성을 보장할 뿐 실제로 적용 시 연산량 증가와 해석의 어려움이 따릅니다. KAN은 Kolmogorov-Arnold Representation Theorem을 기반으로, n개의 변수를 단순 합으로 표현하고, 나머지 변환을 단변수 차원에서 수행함으로써 효율적이고 해석 가능한 모델링을 구현합니다. 이 과정에서 d-차원 Spline을 활용하며, Spline 함수의 제어점을 학습 가능한 파라미터로 설정하여 복잡한 함수의 근사 성능을 높였습니다. KAN의 가장 큰 강점은 모델이 근사하려는 함수가 어떤 형태인지 명확히 확인할 수 있다는 점입니다. 이는 변수 간의 상호작용을 단순화하고, Symbolic한 함수 표현을 가능하게 하여 투명성과 신뢰성을 제공합니다. 이 접근법은 Fourier Theory나 Koopman Theory와 유사한 맥락에서 작동하며, 특히 시계열 데이터를 다루는 문제에서 더 큰 발전 가능성을 시사합니다. 발표를 통해 KAN이 복잡한 함수의 근사와 해석이라는 두 가지 목표를 동시에 달성할 수 있음을 확인할 수 있었습니다. 좋은 발표 감사합니다!


  • 2024-12-02 12:10

    이번 세미나는 기존 MLP의 대안적 구조인 KAN을 제안한 “KAN: Kolmogorov–Arnold Networks”이라는 논문에 대한 발표를 중심으로 진행되었습니다. KAN은 함수 f를 Approximate하는 기존의 MLP와 Spline 곡선이 가지는 강점을 모두 결합한 Powerful하면서 Plausible한 Foundational Building Block에 해당합니다. 이는 강력한 Approximation을 가능하게 하는 KAT에 기반하며, 각 변수의 변화를 Symbolic하게 직접 모델링하며 변수 간의 상호작용은 단순한 Summation으로 모델링한다는 점에서 확실한 강점을 가지고 있습니다. 이러한 강점을 통해 짧은 기간 동안 많은 인용 수를 보이며 이에 기반한 다양한 방법론들이 개발되고 있고, 미래에는 현재 가지고 있는 한계점들을 개선하여 점차 MLP의 대체도 가능할 것이라는 생각이 들었습니다. 해당 논문에서 주장하는 해석력이라는 측면이 향후 인공지능 분야에서 어떻게 활용될 수 있을지 아직은 잘 모르겠지만, 계속해서 지켜볼 가치가 있는 연구 방향을 제시했다는 점에서 많은 의미를 가진 논문인 것 같습니다. 좋은 발표 해주셔서 감사합니다.


  • 2025-01-29 18:30

    이번 세미나는 Kolmogorove-Arnold Networks, 일명 KAN에 대해서 다루었습니다. 이번 세미나를 통해서 처음 접할 수 있었는데, Multi-Perceptron Layer를 대체할 수 있는 구조라는 점에서 각광 받고 있습니다. MLP는 기본적으로 matrix multiplication을 기반으로 전개됩니다. 이에 더해 활성화 함수를 통해 비선형성을 확보하게 됩니다. 아주 간단히 비교하자면 KAN의 경우에는 다양한 spline으로 구성하여 애초에 non-linearity를 확보하게 됩니다. 특히 Sin, exponential, n차 다항식 등의 비선형 함수들로 구성하게 됩니다. MLP 대비 KAN의 가장 큰 특징은 white-box 즉, 수식을 정확히 알 수 있다는 점입니다. KAN이 정말 여러 딥러닝의 모델을 대체할지, 아니면 반짝 빛나는 해프닝에 그칠지는 조금 더 살펴보면 좋을 것 같습니다. 어려운 주제였는데, 잘 설명해주셔서 감사합니다.


전체 515
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 11398
관리자 2020.03.12 0 11398
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 10041
관리자 2020.03.12 0 10041
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 11112
관리자 2020.03.12 0 11112
512
[Paper Review] TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment (2)
Sieon Park | 2025.07.14 | 추천 0 | 조회 69
Sieon Park 2025.07.14 0 69
511
[Paper Review] Exploring Intrinsic Normal Prototypes within a Single Image for Universal Anomaly Detection (3)
Subeen Cha | 2025.07.10 | 추천 0 | 조회 84
Subeen Cha 2025.07.10 0 84
510
[Paper Review] Theory of Everything (About Sequence Modeling with DL Models…) (14)
Jaewon Cheon | 2025.06.27 | 추천 0 | 조회 254
Jaewon Cheon 2025.06.27 0 254
509
[Paper Review] Evaluation of Multilingual Image Captioning: How far can we get with CLIP models? (16)
Minjeong Ma | 2025.06.07 | 추천 0 | 조회 353
Minjeong Ma 2025.06.07 0 353
508
비밀글 [Rehearsal] 석사학위 논문심사 - 마민정 (19)
Minjeong Ma | 2025.06.02 | 추천 0 | 조회 38
Minjeong Ma 2025.06.02 0 38
507
비밀글 [Rehearsal] 석사학위 논문심사 - 정기윤 (20)
Kiyoon Jeong | 2025.06.02 | 추천 0 | 조회 35
Kiyoon Jeong 2025.06.02 0 35
506
비밀글 [Rehearsal] 석사학위 논문심사 - 남웅찬 (19)
Woongchan Nam | 2025.06.02 | 추천 0 | 조회 33
Woongchan Nam 2025.06.02 0 33
505
비밀글 [Rehearsal] 석사학위 논문심사 - 이상민 (21)
SangMin Lee | 2025.06.02 | 추천 0 | 조회 35
SangMin Lee 2025.06.02 0 35
504
[Paper Review] Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems (14)
Siyul Sung | 2025.05.31 | 추천 0 | 조회 445
Siyul Sung 2025.05.31 0 445
503
[Paper Review] Restructuring Vector Quantization with the Rotation Trick (16)
Woojun Lee | 2025.05.20 | 추천 0 | 조회 377
Woojun Lee 2025.05.20 0 377

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 허재혁 : jaehyuk.heo@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호