번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 11492
|
관리자 | 2020.03.12 | 0 | 11492 |
공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 10135
|
관리자 | 2020.03.12 | 0 | 10135 |
공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 11214
|
관리자 | 2020.03.12 | 0 | 11214 |
515 |
[Paper Review] Multi-Scale Finetuning for Encoder-based Time Series Foundation Models (1)
Hyeongwon Kang
|
2025.07.29
|
추천 0
|
조회 49
|
Hyeongwon Kang | 2025.07.29 | 0 | 49 |
514 |
[Paper Review] Recent Research Trends in Video Anomaly Detection (2)
Jaehyuk Heo
|
2025.07.27
|
추천 0
|
조회 72
|
Jaehyuk Heo | 2025.07.27 | 0 | 72 |
513 |
[Paper Review] Introduction to PINN (Some basic concepts and research directions) (9)
Hankyeol Kim
|
2025.07.18
|
추천 0
|
조회 148
|
Hankyeol Kim | 2025.07.18 | 0 | 148 |
512 |
[Paper Review] TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment (10)
Sieon Park
|
2025.07.14
|
추천 0
|
조회 187
|
Sieon Park | 2025.07.14 | 0 | 187 |
511 |
[Paper Review] Exploring Intrinsic Normal Prototypes within a Single Image for Universal Anomaly Detection (9)
Subeen Cha
|
2025.07.10
|
추천 0
|
조회 162
|
Subeen Cha | 2025.07.10 | 0 | 162 |
510 |
[Paper Review] Theory of Everything (About Sequence Modeling with DL Models…) (14)
Jaewon Cheon
|
2025.06.27
|
추천 0
|
조회 346
|
Jaewon Cheon | 2025.06.27 | 0 | 346 |
509 |
[Paper Review] Evaluation of Multilingual Image Captioning: How far can we get with CLIP models? (16)
Minjeong Ma
|
2025.06.07
|
추천 0
|
조회 409
|
Minjeong Ma | 2025.06.07 | 0 | 409 |
508 |
![]()
Minjeong Ma
|
2025.06.02
|
추천 0
|
조회 38
|
Minjeong Ma | 2025.06.02 | 0 | 38 |
507 |
![]()
Kiyoon Jeong
|
2025.06.02
|
추천 0
|
조회 38
|
Kiyoon Jeong | 2025.06.02 | 0 | 38 |
506 |
![]()
Woongchan Nam
|
2025.06.02
|
추천 0
|
조회 33
|
Woongchan Nam | 2025.06.02 | 0 | 33 |
이번 세미나에서는 "Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?" 이라는 제목의 논문에 대해 다뤄주셨습니다. 본 연구는 이미지 캡셔닝 평가에서 영어 중심의 평가 지표를 넘어서, 다양한 언어에서도 적용 가능한 새로운 다국어 평가 방식을 제안합니다. 특히 CLIP 모델의 멀티링구얼 버전을 활용하여, 이미지와 캡션 간의 의미적 유사도를 여러 언어에 걸쳐 정량적으로 평가할 수 있는 프레임워크를 구축한 점이 인상 깊었습니다. 번역된 데이터셋과 다국어 캡션 데이터를 기반으로, 인간 평가와 CLIP 기반 스코어 간의 상관관계를 실험적으로 보여주었습니다. 또한, CLIPScore를 언어별로 미세 조정함으로써 언어 간 표현 차이를 보완하고, 다양한 문화권에서의 표현을 보다 정밀하게 평가할 수 있는 가능성도 함께 제시하였습니다. 이번 연구는 다국어 이미지 캡셔닝 모델의 공정하고 일관된 평가 기준을 마련하는 데 실질적인 기여를 했으며, 향후 멀티링구얼 멀티모달 시스템 개발에 중요한 기준점이 될 수 있다는 점에서 의미 있는 발표였습니다. 좋은 발표 감사합니다!
이번 세미나에서는 “Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?” 논문이 소개되었습니다. 특히 기계 번역 및 품질 필터링 기반 벤치마크 확장 방식이 특히 신선하게 다가왔습니다. 영어 중심 평가를 다양한 언어로 확장하면서도, 비용 부담 없이 높은 품질을 유지한 전략이 매우 인상적이었습니다.
발표 내용을 통해 multilingual CLIPScore가 영어 성능을 해치지 않으면서도, 다른 언어에서도 human judgment와 강한 상관관계를 보인다는 사실에서 그 일반화 능력을 새삼 확인할 수 있었습니다. 더 나아가, XVNLI/MaRVL과 같은 원어 기반 multi-cultural 데이터셋을 캡셔닝 평가에 활용함으로써, 단순 언어 확장을 넘어 문화적·언어적 nuance까지 포착하려는 노력이 공정하고 포괄적인 평가 기준 정립에 좋은 본보기가 되었다고 생각합니다.
개인적으로는 비용효율적인 다국어 평가 설계, reference‑free CLIPScore의 실용성, 그리고 문화적 다양성 반영이라는 세 축이 특히 와닿았고, 향후 리소스가 제한된 언어 지원 시스템 또는 다국어·다문화 AI 평가 프레임워크 개발 시 큰 영감을 줄 것 같습니다.
좋은 발표 진행해 주셔서 감사합니다!
이번 세미나는 기존 이미지 캡셔닝 분야의 연구들이 영어 중심으로 진행되어 다국어 이미지 캡셔닝 평가가 이루어지지 못했던 한계점을 개선하고자 영어 중심의 벤치마크들을 고품질의 다국어 데이터셋으로 확장하고, 기존 다국어/다문화 데이터셋을 이미지 캡셔닝 평가용으로 활용하는 방법을 제안한 "Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?”라는 논문에 대한 발표를 중심으로 진행되었습니다. 여러 가지 연구, 혹은 프로젝트를 진행하면서 한국어에 대한 결과물을 만들어야하는 상황에서 활발하게 연구되는 여러 방법론, 벤치마크들이 한국어를 지원하지 않는다는 이유로 사용하지 못하는 것에 대해 불편함을 많이 느꼈기에 해당 연구의 필요성에 공감할 수 있었습니다. 이러한 연구들이 이미지 캡셔닝에 국한되는 것이 아니라, 더 많은 분야에서 같은 목적을 가지고 연구가 많이 진행되면 좋겠다는 생각이 들었습니다. 좋은 발표 해주셔서 감사합니다.
이번 세미나는 영어 중심의 이미지 캡셔닝 평가의 한계를 극복하고자, CLIP 기반의 reference-free 스코어인 multilingual CLIPScore와 기계 번역 및 품질 필터링을 통해 다국어 벤치마크를 확장한 연구 “Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?”를 중심으로 진행되었습니다. 영어 성능을 유지하면서도 다양한 언어에서 높은 human judgment 상관관계를 보인 점, 그리고 문화적 다양성을 고려한 평가 기준 수립 시도가 특히 인상 깊었으며, 한국어를 포함한 저자원 언어 환경에서 실용적인 평가 도구로서의 가능성을 확인할 수 있는 의미 있는 발표였습니다.
이번 세미나는 기존 영어 중심의 이미지 캡셔닝 평가 한계를 넘어, 다양한 언어와 문화적 맥락까지 포괄하는 평가 체계를 제안한 “Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?” 논문을 소개해 주셨습니다. 특히, reference-free 방식인 multilingual CLIPScore의 도입과 기계 번역 및 품질 필터링을 통한 효율적인 다국어 벤치마크 확장 전략이 인상적이었습니다. 영어 성능 저하 없이 다국어 환경에서도 높은 일관성을 보여준 점, 그리고 문화적 nuance까지 평가하려는 시도는 향후 다양한 언어권과 저자원 환경에서 이미지 캡셔닝 평가의 실용성과 공정성을 높이는 데 앞으로 큰 기여가 될 것이라 생각이 들었던 것 같습니다. 유익한 발표 감사합니다!
금일 세미나는 "Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?" 논문을 바탕으로 진행되었습니다. 최근 이미지 캡셔닝 분야에서는 이미지와 텍스트 간의 alignment을 평가하는 대표적인 방법으로 코사인 유사도 기반 지표인 CLIP score가 널리 사용되고 있습니다. 하지만 기존 CLIP 기반 접근은 주로 영어 중심의 텍스트 인코더에 의존하고 있기 때문에, 다국어 이미지 캡셔닝에 대한 평가 연구는 상대적으로 부족한 상황이었습니다. 이에 제안 연구에서는 Multilingual Image Captioning을 진행하고자 기계 번역과 품질 평가를 통하여 영어 중점적인 벤치마크를 다국어로 확장하고 있으며, 다국어의 의미적 추론과 판단을 위한 기존 벤치마크를 이미지 캡셔닝에 대한 평가로 재활용하는 방법을 함께 제안합니다. 한편, 기계 번역된 데이터를 활용한 다국어 캡셔닝 평가에서는, 결과가 평가지표 자체의 성능뿐만 아니라 번역 품질에도 영향을 크게 받는다는 한계가 존재합니다. 이를 보완하기 위해, 본 연구는 COMETKiwi 지표를 활용하여 번역 품질을 사전에 평가하고, 저품질 번역 후보를 필터링함으로써 보다 신뢰도 높은 평가 환경을 구축하고자 하였습니다. 최근 인공지능 분야에서 주목받고 있는 다문화적, 다언어적 확장성을 잘 반영하고 있다는 방향에서 크게 의미있는 기여점이라고 생각했습니다. 좋은 발표 정말 감사드립니다.
이번 세미나에서는 “Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems” 논문을 소개해주셨습니다. 본 연구는 여러 LLM 에이전트로 구성된 시스템에서 발생하는 실패의 원인을 자동으로 식별하고, 각 에이전트의 실패 기여도를 분석하는 방법을 제안합니다. 특히, 시스템 내 개별 에이전트의 작업 수행 중 오류가 발생했을 때, 이를 정확히 진단하여 문제 해결에 필요한 통찰을 제공하는 것이 주요 목표입니다. 제안된 방법론은 다수의 에이전트가 상호작용하는 복잡한 시스템에서 실패의 책임을 효과적으로 분배할 수 있도록 설계되었으며, 이를 통해 시스템의 신뢰성 및 성능을 높이는 데 기여할 수 있는 중요한 기반을 마련했다고 생각합니다. 좋은 발표 감사합니다.
이번 세미나는 기존 영어 중심의 이미지 캡셔닝 평가의 한계를 극복하고자, CLIP 기반 reference-free 스코어인 multilingual CLIPScore와 기계 번역 및 품질 필터링 기법을 활용해 다국어 벤치마크를 확장한 연구, “Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?”를 중심으로 진행되었습니다.
영어 성능을 유지하면서도 다양한 언어에서 높은 human judgment 상관관계를 보였다는 점, 그리고 문화적·언어적 다양성을 반영하려는 평가 기준 수립 시도가 특히 인상 깊었습니다. 한국어를 포함한 저자원 언어 환경에서도 실용적인 평가 도구로 활용될 수 있다는 점에서 의미 있는 발표였습니다. 좋은 발표 감사합니다!
이번 세미나에서는 “Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?” 논문을 소개해주셨습니다. 기존 이미지 캡셔닝 연구들이 대부분 영어에 집중되어 있었던 반면, 본 연구는 기계 번역과 품질 필터링 기법을 활용하여 다양한 언어로의 벤치마크 확장을 시도했다는 점에서 매우 인상 깊었습니다. 특히 단순히 데이터를 번역하는 데 그치지 않고, COMETKiwi와 같은 번역 품질 평가 지표를 활용해 신뢰도 높은 데이터셋을 구성함으로써 평가 결과의 안정성을 높이려 한 점이 눈에 띄었습니다. 또한 문화적 다양성을 고려하여 원어 기반 데이터셋을 그대로 캡셔닝 과제로 변환하고, 다국어 파인튜닝 전략을 통해 모델의 일반화 능력을 높이고자 한 시도는 다문화 환경에서도 성능을 유지할 수 있는 기반을 마련하는 데 의미가 크다고 느껴졌습니다. CLIP 기반 접근이 언어 간 표현력 차이에 민감하다는 문제를 해결하기 위한 구조적 고민과, 이를 평가 체계로 확장하려는 실용적 시도가 잘 어우러진 연구였다고 생각합니다. 좋은 발표 감사합니다.
이번 세미나는 Image Captioning 분야에서 multilingual의 성능 측정 방법론을 제안한 “Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?” 을 중심으로 진행되었습니다. 특히 다양한 평가 방식 중 Clip-score를 다국어에 활용하기 위해 다국어 데이터로 학습된 CLIP 모델을 만들고, 이를 이용해 기존 영어 기반 데이터를 다국어로 확장하여 평가하는 방식을 가지고 있었습니다. 그 결과 기존의 번역 기반의 CLIP-score나 다국어 모델보다 높은 correlation을 보이면서 우수한 성능을 입증합니다. 다국어 CLIP 모델 개발 시 단순한 번역 데이터가 아니라 각 언어 특징을 포착하는 것이 중요하다고 알려져있는데, 해당 논문에서는 양질의 학습/평가 데이터를 적절히 수집함으로서 이 문제를 해결하는 접근법을 보이고 있었습니다. 사람의 개입을 최소화하면서도 신뢰성 있는 평가 방식을 개발하는 것이 분야를 막론하고 매우 어려운 과제인 것 같은데, 지속적으로 연구될 필요성이 보입니다. 좋은 발표 감사드립니다.
이번 세미나에서는 “ Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?”논문에 대해 소개해주셨습니다. 기존 영어 중심 이미지 캡셔닝 평가의 한계를 지적하고, CLIPScore 기반의 다국어 평가 지표 수립이라는 명확한 문제의식에서 출발한 점이 인상 깊었습니다. 특히 COMETKiwi를 활용한 기계 번역 품질 통제와 이를 기반으로 한 다언어 벤치마크 확장 방식은 실용성과 신뢰성을 모두 고려한 설계라고 생각됩니다. 또한 Crossmodal-3600, VICR 등 다양한 데이터셋을 활용하여 다국어 Fine-tuning의 효과가 실험적으로 잘 나타났고 문화적 뉘앙스와 언어적 다양성에 대한 견고한 대응 전략도 인상 깊었습니다. 전체적으로 다국어 환경에서의 이미지 캡셔닝 연구에 의미 있는 방향성을 제시한 논문인것 같습니다. 좋은 발표 감사합니다!
이번 세미나에서는 “ Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?”라는 논문에 대한 소개를 중심으로 진행되었습니다. 해당 논문은 다국어 Image Captioning의 평가 방법론에 대한 분석을 포함하여 실용적인 평가 프레임워크를 제시한 연구입니다. 해당 연구에서 Contrastive Loss와 Pearson Loss를 교차 배치로 학습해, 다국어 데이터에서 CLIPScore의 일반화 성능을 극대화 시켰다는 것이 장점이라 생각합니다. 또한, 최근 연구 흐름에서 자주 보이는 문화적 요소를 고려하기 위해 편향을 측정하고 분석한 점이 인상 깊었습니다. 다만, Image Captioning 평가 방식에는 근본적인 문제가 존재하고, 아직 이를 해결하지 못했다는 생각이 듭니다. 좋은 발표 준비해주셔서 감사합니다.
이번 세미나에서는 다국어 이미지 캡셔닝 성능을 평가하기 위한 새로운 프레임워크를 제안한 논문 "Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?"을 중심으로 진행되었습니다. 기존의 이미지 캡셔닝 평가는 주로 영어에 국한되어 있었으며, 번역 기반 방식은 언어 간 표현의 뉘앙스를 제대로 포착하지 못하는 한계가 있었습니다. 본 논문에서는 이러한 문제를 극복하고자 텍스트-이미지 간 일치도를 기반으로 한 언어 중립적인 CLIPScore 평가 지표를 활용하여, 다양한 언어에 대해 공정하고 효율적인 평가를 가능하게 합니다. 또한, 공개된 12개 언어의 캡션 데이터셋과 함께 다양한 모델 비교를 통해 CLIP 기반 평가 방식이 다국어 환경에서도 신뢰도 있는 성능 비교를 제공할 수 있음을 실험적으로 검증하였습니다. 본 연구는 이미지 캡셔닝 분야에서의 공정한 모델 평가와 실제 언어 사용 다양성을 반영한 새로운 접근을 제시했다는 점에서 큰 의의를 갖습니다.
기계 번역과 품질 평가를 결합하여 영어 중심의 벤치마크를 비용 효율적으로 여러 언어로 확장하는 방식이 인상 깊은 논문이었습니다. 다국어 처리 능력이 요구되는 환경 하에서도 인간의 평가와 높은 상관관계를 유지하는 결과를 얻어냈다는 점에서 범용적으로 활용할 수 있는 가능성이 있다고 생각합니다. 또 단순한 번역 가능 범위의 확장을 넘어, 언어적/문화적 뉘앙스를 포착할 수 있는 평가 방식을 제시함으로써, 실질적인 사용성 확보에 있어 중요한 영역 중 하나인 문화적 다양성 및 중립성을 어느 정도 고려하고 있다는 것이 연구의 주요 장점 중 하나라고 느꼈습니다. 다만, 여전히 기계 번역 과정에서 발생하는 언어적 단순화나 오류 문제를 완벽히 해소할 수 없다는 한계점에 공감하였습니다. 좋은 발표 감사합니다!
이번 세미나에서는 이미지 캡셔닝 분야의 다국어 평가 한계를 극복하고자 제안된 “Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?” 논문을 소개해주셨습니다. 기존 연구들이 영어 중심으로 편중되어 있었던 문제를 지적하며, 본 연구는 기계 번역과 품질 평가 지표(COMETKiwi 등)를 활용해 고신뢰도의 다국어 캡션 데이터셋을 구축하고, CLIP 기반의 언어 중립적 평가 지표를 통해 다양한 언어에서도 일관된 성능 비교가 가능함을 보여주었습니다. 특히 문화적 표현 차이를 고려한 원어 기반 캡션 활용과 다국어 파인튜닝 전략은 실제 환경에서의 적용 가능성을 높이는 데 기여할 수 있는 실용적인 접근으로 느껴졌습니다. 이미지 캡셔닝뿐 아니라 다양한 언어 기반 AI 작업 전반에 시사점을 주는 연구라고 생각되며, 좋은 발표 감사합니다.
이번 세미나에서 소개된 "Evaluation of Multilingual Image Captioning: How far can we get with CLIP models?" 논문은 영어 중심의 이미지 캡셔닝 평가 체계를 다국어 환경으로 확장하려는 시도가 매우 의미 있다고 생각됩니다. 특히 COMETKiwi를 활용한 번역 품질 필터링을 통해 고품질의 다국어 벤치마크를 구축한 점이 인상적이었습니다. Multilingual CLIPScore가 영어 성능 저하 없이 다양한 언어에서 human judgment와 높은 상관관계를 보인다는 실험 결과는 해당 접근법의 실용성을 잘 보여준다고 느꼈습니다. 좋은 발표 감사합니다!