번호 | 제목 | 작성자 | 작성일 | 추천 | 조회 |
공지사항 |
Paper Reviews 2019 Q3
관리자
|
2020.03.12
|
추천 0
|
조회 10452
|
관리자 | 2020.03.12 | 0 | 10452 |
공지사항 |
Paper Reviews 2019 Q2
관리자
|
2020.03.12
|
추천 0
|
조회 9062
|
관리자 | 2020.03.12 | 0 | 9062 |
공지사항 |
Paper Reviews 2019 Q1
관리자
|
2020.03.12
|
추천 0
|
조회 10175
|
관리자 | 2020.03.12 | 0 | 10175 |
499 |
[Paper Review]SLMREC: Distilling Large Language Models Into Small For Sequential Recommendation (6)
Doyoon Kim
|
2025.05.01
|
추천 0
|
조회 71
|
Doyoon Kim | 2025.05.01 | 0 | 71 |
498 |
[Paper Review] TimeXer: Empowering Transformers for Time Series Forecasting with Exogenous Variables (16)
Sunghun Lim
|
2025.04.24
|
추천 0
|
조회 162
|
Sunghun Lim | 2025.04.24 | 0 | 162 |
497 |
[Paper Review] Imputation-based Time-Series Anomaly Detection with Conditional Weight-Incremental Diffusion Models (17)
Suyeon Shin
|
2025.04.21
|
추천 0
|
조회 145
|
Suyeon Shin | 2025.04.21 | 0 | 145 |
496 |
[Paper Review] Revisiting Multimodal Fusion for 3D Anomaly Detection from an Architectural Perspective (15)
Woongchan Nam
|
2025.04.16
|
추천 0
|
조회 182
|
Woongchan Nam | 2025.04.16 | 0 | 182 |
495 |
[Paper Review] Your Large Vision-Language Model Only Needs A Few Attention Heads For Visual Grounding (17)
Kiyoon Jeong
|
2025.04.16
|
추천 0
|
조회 331
|
Kiyoon Jeong | 2025.04.16 | 0 | 331 |
494 |
[Paper Review] Reasoning over Time Series with LLMs (16)
Hyeongwon Kang
|
2025.04.09
|
추천 0
|
조회 360
|
Hyeongwon Kang | 2025.04.09 | 0 | 360 |
493 |
[Paper Review] Accurate predictions on small data with a tabular foundation model (17)
Jaehyuk Heo
|
2025.04.02
|
추천 0
|
조회 354
|
Jaehyuk Heo | 2025.04.02 | 0 | 354 |
492 |
[Paper Review] Reasoning and Reinforcement Learning for LLM (16)
Jaehee Kim
|
2025.04.02
|
추천 0
|
조회 342
|
Jaehee Kim | 2025.04.02 | 0 | 342 |
491 |
[Paper Review] LLM based Recommender Systems : EAGER-LLM (20)
Jungho Lee
|
2025.04.02
|
추천 0
|
조회 291
|
Jungho Lee | 2025.04.02 | 0 | 291 |
490 |
[Paper Review] Data-driven discovery of coordinates and governing equations (18)
Hankyeol Kim
|
2025.03.25
|
추천 0
|
조회 266
|
Hankyeol Kim | 2025.03.25 | 0 | 266 |
금일 세미나는 LLM의 Personality Trait을 분석하고, 이를 통제할 수 있는지 실험한 Personality Traits in Large Language Models를 중심으로 진행되었습니다. 챗봇과 같이 일반 사용자를 대상으로 서비스되는 LLM들의 경우 단순히 태스크를 잘 수행해야 할 뿐 아니라, 필요한 발화 태도가 존재할 수 있습니다. 이러한 발화 태도 및 어투는 기존의 심리학 분야에서 연구되던 Personality Trait으로 정의될 수 있습니다. 이는 사람의 성향을 분류한 체계로서, 챗봇 역시 Personality Trait을 가지고 있고, 이를 통제할 수 있다면 다양한 서비스에서 보다 효과적인 사용자 경험을 제공할 수 있습니다. 실제로 해당 연구에서는 기존 심리학 연구에서 사용되던 Personality Trait 질문지를 이용하여 다양한 LLM을 평가하였습니다. 그 결과 잘 훈련된 LLM들의 경우 일정한 Personality Trait을 가지고 있고, 이를 프롬프트를 통해 통제할 때, 충분히 통제될 수 있음을 보이고 있습니다. LLM의 평가가 매우 어려운 분야이고, 심지어 해당 연구에서 다루는 Personality Trait은 기존 ML/DL 분야에서 정의되지 않는 개념이었음에도 불구하고 타 연구분야의 결과물을 효과적으로 이용하는 점에서 흥미로운 연구였던 것 같습니다.
오늘 세미나는 LLM의 Personality를 평가 및 제어하는 방법론을 제안한 "Personality Traits in Large Language Models" 논문을 중심으로 진행되습니다. 해당 연구는 LLM이 직접 두 가지 종류 (PIP-NEO, Big Five Inventory(BFI)) 심리 테스트에 응답하게 한 뒤 그 결과를 토대로 personality를 유추하는 과정을 거쳤습니다. 이러한 과정에서 심리학 관련 연구에서 사용할 법한 데이터 셋과 평가지표를 적용하였습니다. LLM의 뛰어난 NLG NLU capability를 토대로 다양한 task에 응용하는 것이 중요해진 현실에서 LLM이 과연 서비스에 적합한 태도와 어투를 가지었는지 평가하하고 제어하는 연구 역시 중요해진 것 같습니다. 특히 해당 연구의 교신저자 분께서는 LLM을 유아 교육에 응용하는 연구에 몰두하고 계신 만큼 LLM의 personality를 평가하고 제어하는 것을 중시하지 않으셨을지 생각이 들었습니다. 좋은 발표 감사합니다.
이번 세미나에서는 대규모 언어 모델(LLM)의 Personality Trait를 평가하고 조절할 수 있는지 탐구하는 ‘Personality Traits in Large Language Models’ 논문에 대해 발표해 주셨습니다. 해당 연구는 LLM이 사람처럼 행동하고 반응하는 방식을 이해함으로써, LLM의 'Personality'를 어떻게 측정하고 조절할 수 있는지에 대한 통찰력을 제시합니다. 심리학에서 사용되는 기존의 Personality 평가 방식을 LLM에 적용하여, 이들이 인간과 유사한 Personality Trait을 나타낼 수 있는지 검증합니다. 또한, LLM이 특정 Personality Trait을 나타내도록 프롬프트를 통해 조절 가능한지를 실험합니다. 해당 연구의 가장 인상깊었던 점은 LLM을 인간처럼 평가하려는 시도였습니다. 심리학 기반 접근법을 사용하여 LLM의 Personality Trait를 분석하고, 이를 통해 LLM의 Personality를 조절할 수 있는 가능성을 탐색하는 것이 매우 인상깊었습니다. 또한, 다양한 LLM 모델과 크기를 비교 분석함으로써, 모델의 Personality Trait에 대한 이해를 깊게 할 수 있었습니다. 다만, LLM의 'Personality'가 실제 인간의 Personality와 어떻게 다른지, 또는 유사한지에 대한 깊이 있는 분석은 제공하지 않아 다소 아쉬웠습니다. Personality Trait이 인간과 LLM 사이에서 실제로 어떻게 대응되는지, LLM의 Personality 조절이 실제 사용자 경험에 어떠한 영향을 미치는지에 대한 구체적인 사례 연구나 분석이 더 필요할 것으로 생각됩니다. 그럼에도 해당 연구는 LLM의 인간화와 사용자 맞춤화에 중요한 기여를 할 것으로 기대되며 향후 많은 발전 가능성이 있을 것으로 생각됩니다. 흥미로운 발표해주셔서 감사합니다.
금일 세미나에선 LLM의 Personality를 평가하는 방법과, 이를 제어하는 방법을 제안한 'Personality Traits in Large Language Models' 논문을 소개해주셨습니다. 해당 논문에서는 LLM으로 하여금 PIP-Neo, Big Five Inventory 두가지의 심리테스의 결과를 바탕으로 personality를 측정할 수 있는 방법을 제안하였습니다. 기존 인간의 심리를 파악하는 방법과 동일한 질문지를 바탕으로 LLM의 personlality를 측정하는 방법을 제안하며, 해당 방법의 정확도와 엄밀도를 잘 뒷받힘 하는 여러 지표들을 제시하였습니다. 또한 발표의 후반부에선 prompting을 통해 여러 Personality trait을 나타내도록 하는 방법을 제안하였습니다. 단순한 prompting을 통해 모델이 특정 personality를 나타내게 유도하는 방법은 상당히 인상적이였습니다. 아직까지는 Personality가 LLM에 끼치는 영향을 잘 체감은하지 못하겠으나, 챗봇 서비스의 만족도 향상 측면에서는 이점이 있다고 생각이 들었습니다. LLM에 있어 새로운 분야에 대해 소개해주셔서 상당히 재밌게 잘 들었습니다. 좋은 발표 감사합니다.
이번 세미나에서는 심리테스트를 LLM에 활용하는 Personality Traits in Large Language Models 논문을 소개 해주셨습니다. 해당 논문은 심리 테스트를 활용하여 LLM이 가진 personality를 평가합니다. 이 Test를 통해 Reliability 및 Construct Validity 측면의 통계적 분석을 수행하며, 결과를 종류 및 정도를 세분화하여 LLM의 personality를 제어합니다. 심리 테스트를 LLM에 적용한다는 점이 상당히 낯설고 신기했습니다. 하지만 프롬프트에 의존하는 경향이 크고, 실험 결과도 정성적인 결과에 치중되어 있다는 생각이 들었습니다. 이를 보완하기 위해 통계적 방법을 사용하고 신뢰성을 높이고자 한 것으로 생각이 됩니다. 접근 방식은 낯설지만 인상 깊었지만 범용적으로 사용할 수 있을까에 대해서는 물음표가 들었던 연구였습니다. 좋은 발표 감사합니다!
본 세미나는 이지윤 발표자님께서 "Personality Traits in Large Language Models"라는 논문을 바탕으로 진행해주셨습니다. LLM Personality Test라고 하는 심리학 분야의 심리 테스트를 활용하여 LLM이 가진 personality를 평가하며, 특히 Reliability 및 Construct Validity 측면의 통계적 분석을 수행하여 유효성을 입증하였습니다. 또한 Personality의 종류 및 정도를 세분화하여 prompting 함으로써, LLM의 personality를 제어하였습니다. LLM 사용이 대중화 됨에 따라, LLM의 생성문을 개인의 특성에 맞게 연구하는 personality 연구가 대두되고 있습니다. 따라서 이런 개인 특성을 연구하고자 심리 테스트지에 있는 문항들을 LLM Prompt로 접목시켜 진행하는 것이 해당 논문의 큰 기여점이자 차별점이라고 생각하였습니다. 흥미로웠던 실험 과정은 Construct Validity라고 하는 측정해야 하는 대상을 잘 측정하는지 평가하는 척도였습니다. 이 척도를 Convergent validity라고 하는 수렴 타당도와, Discriminant validity라고 하는 판별 타당도로 구분하여 다양한 척도를 바탕으로 구체화 시킨 것이 매우 흥미롭다고 생각하였습니다. 심리학이라는 분야에 대해 관심이 많았고, 이 분야가 어떻게 NLP에 접목되는지 항상 관심이 많았는데 본 논문 주제가 제가 바라던 주제였던 것 같습니다. 좋은 발표 준비해주셔서 감사합니다.
이번 세미나에서는 “Personality Traits in Large Language Models”라는 연구에 대해 소개해 주셨습니다. 이번 세미나에서는 인간의 행동 유형을 분류하는 Big-Five Personality Traits를 기반으로 LLM이 어떤 Personality 갖고 있는지, LLM이 사용자가 원하는 Personality를 갖도록 만들 수 있는지 분석했습니다. 해당 연구 외에도 ChatGPT가 등장한지 얼마 지나지 않아 ChatGPT의 MBTI는 무엇인지 분석하는 등 모델 구조 혹은 성능 개선이 아닌 “대화 상대”로의 LLM을 분석하는 연구들이 다수 진행되고 있습니다. 방법론 자체는 Prompt를 이용하기에 어렵지 않았지만, 일종의 심리 테스트인만큼 테스트 결과에 대한 타당성 및 신뢰성을 평가하고자 한 파트가 인상적이었습니다. 연구자의 입장에서는 LLM의 성능을 높이는 것이 중요하지만, 대부분의 사용자 입장에서는 “대화 상대”인 LLM이 자신에게 조금 더 Customize되고 사용자가 원하는 말투나 성향을 보이는 것이 서비스 측면에서는 더욱 중요할 것입니다. 최근에 접해보지 못했던 종류의 연구라 재미있게 들었습니다. 좋은 발표 감사합니다.
금일 세미나는 Personality Traits in Large Language Models 논문을 바탕으로 진행되었습니다. 해당 논문의 목적은 심리 테스트를 활용하여 LLM이 가지는 Personality를 평가한 후 Reliability 및 Construct Validity 측면의 통계적 분석을 수행함으로써, 최종적으로 LLM Personality의 종류 및 정도를 세분화하여 prompting함으로써 LLM의 personality를 제어하고자 하는 것이라고 볼 수 있습니다. 이때 해당 논문에서는 각 Trait 별 60개의 문항을 가지는 IPIP-NEO와 각 Trait 별 8-10개의 Big Five Inventory(BFI) 심리 테스트를 사용하고 있습니다. 해당 심리 테스트의 문항들을 고정된 Prompt template으로써 LLM에 제시해 주고 있는데, 해당 항목들을 Item Preamble, Item, Item postamble로써 구분할 수 있습니다. 먼저 Item Preamble은 Persona Description에 따라 응답하라는 지시와 부여하고자 하는 Persona에 대한 설명, 또한 Item에 대해 응답하라는 지시로 이루어져 있습니다. 다음으로 Item 항목은 각 테스트의 문항으로 구성되어 있고, Item Postamble은 평가할 Scale에 대한 안내로써 이루어집니다. 해당 실험 결과, 모델의 크기가 클수록 제안 방법의 Reliability 및 Construct Validity가 증가하고 있으며, LLM에게 Personality 종류 및 정도를 세분화하여 제공하면 테스트 결과에 유의미한 차이가 있다는 것을 확인할 수 있었습니다. 기본적으로 어떤 모델을 구성함에 있어서 사람이 행동과 생각을 따라하는 Process를 구성하는 방향으로 연구가 진행되어가고 있는 와중에 생각해 볼 수 있는 좋은 접근 방법이었던 것 같습니다. 좋은 발표 정말 감사드립니다.
금일 세미나에서는 'Personality Traits in Large Language Models'라는 논문을 소개해 주셨습니다. 해당 논문에서는 LLM의 Personality 특성을 분석하고 있으며 심리학에서 쓰이는 PIP-Neo, Big Five Inventory 심리 테스트를 활용하여 LLM의 Personality를 평가하고 있습니다. 해당 연구에서는 Item Preable, Item, Item Postamble로 구성되어 있는 Prompt template를 활용하여 평가를 진행하고 있으며 이에 따른 LLM의 Reliability, Construct Validity를 평가하고 있습니다. 인상깊었던 점은 LLM의 사용이 점점 더 대중화됨에 따라 사용자와의 Interaction에서 LLM의 개성을 고려하는 것이 중요하다고 판단하여 심리학을 접목했다는 점이 인상깊었으며 LLM이 특정한 개성을 가지고 있으며 이를 제어할 수 있다는 해당 논문에서 입증하고 전개해 나가는 것이 흥미로웠습니다. 해당 논문을 바탕으로 챗봇이나 다른 Conversational 시스템의 설계와 개발에 활용될 수 있을 것이라고 생각이 들었으며 이와 관련된 발표자분의 개인 연구 또한 더욱 기대가 되었던 것 같습니다. 처음 접한 분야를 꼼꼼하게 설명해주신 발표자분께 감사의 인사를 드립니다. 좋은 발표 감사합니다!
이번 세미나에서는 Personality Traits in Large Language Models 라는 논문을 다루었습니다. 해당 논문에서는 LLM이 어떠한 personality를 가졌는지 등을 체계적으로 분석합니다. 분석 결과 LLM의 personality는 특정한 prompt와 setting에 따라서는 reliability 및 construct validity를 가지고 있음을 보입니다. 또한 LLM의 reliability 및 validity는 크기가 큰 모델일수록 강한 경향성을 보인다는 것을 입증하였습니다. 그리고 prompt를 통해 특정한 personality로 LLM을 제어할 수 있음을 보였습니다. 심리학적 관점에서 LLM을 분석하는 것은 흥미로운 접근법이었지만 변인이 너무 많아서 결과의 신뢰성에는 의문이 생기는 연구였습니다. 좋은 발표 감사합니다.
“Personality Traits in Large Language Models” 논문에 대한 세미나 발표는 대규모 언어 모델(LLM)의 성격 특성을 심리학적 도구를 이용해 측정하고 조절할 수 있는 가능성을 탐구한 연구로 매우 흥미로웠습니다. 이 연구는 LLM이 인간과 유사한 성격 특성을 나타낼 수 있음을 보여주며, 모델의 크기가 커질수록 신뢰성과 구성 타당성이 증가함을 확인했습니다. 연구 방법론과 결과는 LLM을 더 인간적이고 개인화된 상호작용을 제공하는 방향으로 발전시킬 수 있는 기반을 마련합니다. 하지만, LLM의 성격이 실제 인간의 성격과 어떻게 다른지, 성격 조절이 사용자 경험에 미치는 영향에 대한 추가 연구가 필요합니다. 이 연구는 LLM의 사용자 맞춤화와 인간화에 중요한 기여를 하며, 앞으로의 발전 가능성을 제시합니다. 좋은 발표 감사합니다.