2025년 한국컴퓨터종합학술대회(Korea Computer Congress, KCC)를 통해 처음으로 대규모 학회에 참가해 보았습니다. 학부 시절에는 교내 동아리나 학회를 통해, 또 연구실에서는 세미나나 스터디를 통해 비슷한 관심사를 가진 사람들과 소통해본 경험이 있었지만, 이처럼 공통된 주제를 바탕으로 각자의 연구를 소개하고 자유롭게 토론할 수 있는 장이 있다는 점에서 인상 깊게 다가왔습니다.
포스터 세션을 통해 각 세부 분야에서 어떤 연구들이 진행되고 있는지를 개괄적으로 살펴볼 수 있었습니다. 참가자들은 하나의 포스터 안에 연구의 필요성과 문제 정의, 실험 과정, 결론까지 핵심 내용을 압축적으로 정리해 소개하고, 질의응답을 통해 자신의 연구를 성실히 설명하려는 모습을 보여주었습니다. 이러한 점이 매우 인상 깊었습니다.
다만, 전체적인 포스터 수가 많지는 않았고, 컴퓨터공학과의 참여 비중이 높아 연구 주제가 foundation model이나 방법론 중심으로 다소 편향되어 있다는 느낌을 받았습니다. 산업공학과에서 다루는 주제들과는 연구의 방향성이 조금 달라 아쉬움이 남았습니다. 또한 일부 발표자는 포스터 대신 발표자료를 그대로 출력해 게시한 경우도 있었는데, 이로 인해 내용이 한눈에 들어오지 않고 준비가 미흡해 보이기도 했습니다.
이번 경험을 통해, 앞으로 제가 포스터 세션에 참여하게 된다면 단순히 연구 내용을 나열하기보다는 누가 보더라도 명확하게 이해할 수 있도록 구성하고 시각적으로 전달력 있는 포스터를 만드는 것이 중요하겠다는 점을 깨달았습니다.
Oral 세션의 경우 연구실 김재희 박사과정이 발표를 진행한 Top 세션 Ⅴ - 인공지능 응용 세션을 참관하였습니다. 해당 세션은 국내 연구자들이 해외 탑티어 학회에 발표한 연구를 주제별로 세션으로 구성하여 연구에 대한 소개를 듣고, 질의응답을 진행할 수 있는 세션이였습니다. 평소에 논문들을 읽으며 이해가 잘 되지 않을 때 ‘아, 이런 부분은 저자에게 직접 물어보고 싶다.’ 또는 ‘저자가 직접 본인의 논문을 소개해 주면 좋겠다’라는 생각을 막연하게나마 해본 적이 있는데, 그러한 부분을 직접 경험해 볼 수 있는 세션이여서 흥미롭게 참관하였던 것 같습니다.
포스터 세션 및 Oral 세션에서 관심있게 보았던 연구를 간단히 소개해 봅니다.
(포스터 세션) 다계층 프로토타입 추출 방식을 활용한 Few-shot 증분 학습에 관한 연구 - 장세훈 외, 성균관대
해당 연구는 Few-Shot Class-Incremental Learning(FSCIL) 환경에서 기존 지식을 유지하면서 새로운 클래스를 소량의 데이터로 학습하는 문제에 대해 다루고 있었습니다. 기존의 대표적인 FSCIL 방법론인 TEEN이 특징 추출기의 마지막 계층 임베딩만을 사용하여 프로토타입을 생성하는 반면, 이 연구는 중간 계층과 마지막 계층의 특징을 선형적으로 보간하여 다계층 프로토타입을 구성하는 방식을 제안했습니다. 중간 계층이 보다 일반화된 표현을 학습한다는 점에 착안하여 신규 클래스에 대한 표현력을 강화하는 데 효과적이라는 점에서 매우 흥미로웠습니다.
실험은 mini-ImageNet 및 CIFAR-100 데이터셋을 기반으로 수행되었으며, 기존 TEEN 대비 정확도 향상과 성능 저하 완화(PD 감소)를 모두 달성한 결과가 인상적이었습니다. 특히, 하이퍼파라미터 α 조정에 따라 최종 계층과 중간 계층의 비중을 조절할 수 있다는 점도 실용적인 면에서 눈에 띄는 부분이었습니다. 해당 포스터는 시각적으로도 깔끔하게 정리되어 있었고, 발표자의 설명도 매우 명확해서 개념을 이해하는 데 도움이 많이 되었습니다.
(Oral 세션) DASH: Warm-Starting Neural Network Training in Stationary Settings without Loss of Plasticity - 신백록 외, KAIST
해당 연구는 warm-starting, 즉 기존 학습된 가중치를 활용해 네트워크를 재학습하는 방식이 왜 새로운 데이터를 학습할 수 있는 능력(plasticity)을 잃는지 파헤칩니다. 연구진의 발표에 따르면, stationary한(변하지 않는) 데이터에서도 노이즈를 과도하게 암기하는 현상이 주된 원인이라고 밝혔습니다. 이를 해결하기 위해 제안된 기법인 DASH (Direction‑Aware SHrinking)는, gradient 방향성에 따라 중요도가 낮은 노이즈 가중치만 선택적으로 줄여 과거의 '잘못된 암기'를 지우고, 핵심 특징(feature)은 보존합니다.
실험 결과, Tiny‑ImageNet 같은 Vision 과제에서 DASH를 적용하면 테스트 정확도와 학습 효율성 모두 warm-starting 대비 향상된다는 점이 인상 깊었습니다.
좋은 기회를 제공해 주신 교수님 덕분에 소중한 경험할 수 있었고, 많은 것을 배울 수 있었던 시간이였던 것 같습니다. 다시 한 번 감사드립니다.
번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
327 |
2025 한국컴퓨터종합학술대회 - 김한결
Hankyeol Kim
|
2025.07.07
|
추천 0
|
조회 26
|
Hankyeol Kim | 2025.07.07 | 0 | 26 |
326 |
2025 한국컴퓨터종합학술대회 - 차수빈
Subeen Cha
|
2025.07.05
|
추천 0
|
조회 20
|
Subeen Cha | 2025.07.05 | 0 | 20 |
325 |
2025 한국컴퓨터종합학술대회 - 김도윤
Doyoon Kim
|
2025.07.04
|
추천 0
|
조회 35
|
Doyoon Kim | 2025.07.04 | 0 | 35 |
324 |
2025 ICLR - 김도윤
Doyoon Kim
|
2025.07.02
|
추천 0
|
조회 33
|
Doyoon Kim | 2025.07.02 | 0 | 33 |
323 |
2025 ICLR - 김재희
Jaehee Kim
|
2025.05.12
|
추천 0
|
조회 208
|
Jaehee Kim | 2025.05.12 | 0 | 208 |
322 |
2025 ICLR
Hun Im
|
2025.05.02
|
추천 0
|
조회 159
|
Hun Im | 2025.05.02 | 0 | 159 |
321 |
2025 ICLR - 박진우
Jinwoo Park
|
2025.04.28
|
추천 0
|
조회 235
|
Jinwoo Park | 2025.04.28 | 0 | 235 |
320 |
2024 NeurIPS - 김재희
Jaehee Kim
|
2024.12.20
|
추천 0
|
조회 496
|
Jaehee Kim | 2024.12.20 | 0 | 496 |
319 |
2024 NeurIPS - 박진우
Jinwoo Park
|
2024.12.19
|
추천 0
|
조회 330
|
Jinwoo Park | 2024.12.19 | 0 | 330 |
318 |
2024 Neurips - 임훈
관리자
|
2024.12.18
|
추천 0
|
조회 405
|
관리자 | 2024.12.18 | 0 | 405 |