[Paper Review] Defense-GAN

Paper Review
작성자
Seungwan Seo
작성일
2020-06-03 20:58
조회
4560
1. Topic

GAN을 사용하여 adversarial attack을 방어하는 Defense-GAN

2. Overview

본 발표는 Defense-GAN을 이해하기 위하여 GAN과 adverasrial example에 대한 개인적인 해석을 포함한다. 뿐만 아니라 오해하기 쉬운 부분들에 대하여 실험을 진행하여 adversarial example이 기존의 data augmentation 기법들과 비교했을때, 그만한 효과가 없음을 보인다.

논문에서 제안하는 기여점은 특이하게도 모델을 학습하는데 있지 않다. 우리가 일반적으로 아는 것과 같은 방식으로 classifier와 GAN을 학습한 후, inference 시에 최적의 z를 찾은 후 classifier가 class를 예측해야 하는 이미지와 최대한 유사한 이미지를 생성한다. 본 논문은 이러한 구조를 통하여 2018년 당시 black-box와 white-box 에 대한 방어에서 SOTA를 기록한다.

3. 발표자료 및 발표영상

[1] 발표자료: 첨부파일

[2] ">발표영상

4. 참고문헌

[1] Defense-GAN: Protecting Classifiers Against Adverasrial Attacks Using Generative Model, ICLR 2018
전체 14

  • 2020-06-05 20:08

    adversarial learning이라하면 우리가 잘 알고 있는 GAN을 의미하며, adversarial training이라하면 attack에 대한 방어를 위한 학습으로 명확한 차이를 이해할 수 있었습니다. adversarial learning은 꽤 오래된 방법론이지만 다양한 연구에 적용되는 것 같습니다. 그중에 성공적으로 잘 적용된 방법은 domain adaptation, generation인것 같고 반면에, data augmentation에서는 왜 잘 적용이 되지 않는지 발표자의 의견에 의해 알수 있었습니다. 이정훈 발표자의 세미나와 연관지워 생각하면 strong augmentation이 너무강해서 성능이 떨어진거과 어느정도 일맥상통하는 것 같습니다. 딥러닝이 발전하면서 꼭 필요한 분야라고 생각되며 큰 연구성과있기를 기원합니다.


  • 2020-06-05 21:16

    Adversarial example에 대한 전반적인 설명과 방어 기법인 Defense-GAN에 대한 발표였습니다. 오늘 발표에서 흥미로웠던 것은 GAN에 대한 발표자분의 생각 및 주장, 이를 뒷받침하기 위한 실험들이었습니다. 우선 GAN을 auto encoder와 비교한 부분에서 GAN에 대한 발표자분의 깊은 고민과 생각을 느낄 수 있었고, adversarial training이 data augmentation의 역할을 하는가에 답하기 위해 진행한 실험들에서 또한 배울 점이 많았습니다. 개인적으로 실험 결과에서 성능 향상의 정도가 크다고 해서 data augmentation이 아니라고 할 수 있을까 하는 의문이 들었으나, 후반부에서 real world에 존재하지 않는 data를 생성한다는 점에서 augmentation으로 볼 수 없다는 말이 큰 설득력이 있었다고 생각합니다. 중간에 많은 연구원들이 혼용해서 사용하고 있는 adversarial learning과 adversarial training에 대한 용어 정리를 해주신 것 또한 도움이 되었습니다. Attack GAN에 대한 개인연구 부분에서도 다양한 조건에서 실험을 진행하였는데 비판적으로 기존 연구를 받아들이고 꼼꼼하게 실험을 진행하시는 만큼 좋은 결과 있으리라 생각합니다.


  • 2020-06-09 15:39

    금일 세미나에서 가장 흥미로운 화두는 Adversial training이 Data Augmentation 일부인지 여부에 대한 내용입니다.
    본질적으론 데이터의 형태를 변화시켜 모델을 robust하게 만드는 방법이지만 data Augmentation을 통해 생성되는 데이터는 testset 또는 현실세계에 있을 수 있는 데이터이고
    Adversial training을 통해 생성된 데이터는 testset에서는 볼수 없는 데이터이므로 두가지 기술은 서로 다르다는 견해가 흥미로웠습니다.
    다만 Vision 분야에서는 Adversial training을 통해 나온 data는 Data Augmentation으로 볼 수 없지만 NLP분야에 적용하면 다른 결과가 나오지 않을까 개인적으로 기대합니다.
    오늘 설명주신 논문역시 GAN을 이용하여 Latent Vector Z를 생성하는 방법 역시 흥미로웠습니다. 흥미로운 개인 연구도 꼭 좋은 결과가 있길 바라겠습니다. 감사합니다.


  • 2020-06-10 01:58

    이번 세미나에서 지난번 제가 발표했던 Adversarial training 의 정의와 개념, 그리고 추천시스템에 적용했을때는 왜 일반화성능이 높아 지는지에 대해 좀 더 명확하게 이해 할 수 있었습니다. 이미지에서 Adv example 은 사실상 test set에 존재하지 않을 가능성이 높고, data aug 는 test셋에 있을 것 같은 것을 생성해 내는것으로 이해 했습니다. 추천시스템에서 제가 당시 이 방법론은 일종의 data augment라고 설명했었는데, 이 때 저는 저자들이 왜 이것을 data aug 라고 설명했는지 정확히 이해 하지못했습니다. 오늘 세미나를 듣고 돌이켜 보면, 임베딩과정에서 adv example을 생성하고, 특히 그래프 차원에서 생성된 임의의 노드(즉 유저가 click 하지 않았지만, 관심있어할 아이템) 으로 생성되는 것이며, 이것이 이미지와는 달리, 실제로 있을 것 같은 아이템을 생성하는 것으로 받아 들일수 있었습니다.


  • 2020-06-10 18:51

    이번 세미나의 발표는 Defense-GAN 이라는 논문으로 AnoGAN과 유사하면서 f-AnoGAN을 응용한 모델의 연구였습니다. Defense-GAN을 설명하기에 앞서, 가장 기초적인 개념인 GAN, AutoEncoder 등을 설명해주어 좋았고, 처음 듣는 사람들은 생소하다고 느낄 수 있는 Adversarial training에 대해 설명해주어서 좋았습니다. 이전 발표들을 여러번 들어와서 Adversarial Attack과 Defense에 관한 내용들은 알고 있었으나, Adversarial training과 learning의 차이를 제대로 생각해본적은 없었습니다. 그런데 발표 초반부에 이 부분들을 발표자께서 다양한 논문을 읽고 연구하신 것을 바탕으로 이해하기 쉽게 예시와 함께 이야기해준 것이 와닿았습니다. 또한 Attack-GAN에 대해 실험을 진행하면서 개선을 반복적으로 시도하는 모습이 인상적이었습니다. 또한 실험 중에 얻은 교훈들을 공유해주어 감사하단 말씀 전하고 싶습니다.


  • 2020-06-10 20:45

    이번 세미나는 adversarial attack과 관련해 Defense-GAN에 대한 고찰이 있는 세미나였습니다. 세미나 처음에 GAN과 adversarial attack에 대한 설명을 해주어서 defence-GAN의 특징을 더 잘 이해할 수 있었습니다. 또한 data augmentation에 대한 정의를 다시한번 생각해볼 수 있어서 좋았습니다. 실제 있을 법한 data를 생성하는 것만 data augmentation으로 볼 것인지, adversarial example들도 포함해서 볼 것인지를 명확히 구분해야하는데 다른 논문들에서는 이를 구분짓지 않고 쓰기 때문에 본 발표자와 같이 정확히 정의를 내리고 연구를 진행하는 것이 본받을 만한 자세였습니다.
    또 개인적으로 관심있게 보던 AnoGAN과 구조가 비슷하여 defense-GAN에 대한 이해를 더 쉽게 할 수 있었습니다. 특히 둘다 Z라는 latent space 벡터를 활용하였는데 z를 학습하는 과정 때문에 attack이 어렵다는 점을 배울 수 있었습니다. 논문에 대한 자세한 분석외에 발표자의 의견과 정의를 들을 수 있어서 청자로서도 한번더 의견을 정리할 수 있었던 세미나였습니다. 감사합니다.


  • 2020-06-14 15:46

    제가 관심있는 분야와 상당한 유사성을 가지고 있는 분야기 때문에 더욱 집중해서 들었던 것 같습니다. 본인의 연구 분야와 관련하여 본인이 가지고 있는 생각들에 대해 일목요연하게 설명하고 그것을 연구원들과 공유하는 세미나를 진행하셨는데 매우 유익한 시간이었습니다. 앞으로 세미나 준비를 하는데 있어서 많은 참고가 될 것 같습니다.
    발표해주신 defense 방법론은 adversarial attack에 특화된 OOD detection이라는 생각이 들었습니다. 이런 관점에서 반대로 생각하여 기존의 OOD detection 방법론을 adversarial attack에 좀 더 적합하도록 재조정하여 사용한다면 또 좋은 연구가 될 수 있지 않을까라는 생각을 하였습니다.


  • 2020-08-03 17:03

    GAN의 필요성과 더불어 Perturbation에 대한 상세한 설명 및 시각적 자료로 기본 개념을 이해하는데 큰 도움이 되었습니다. 특히 학습된 모델 전체를 Freeze 한 후 Input에 Gradient를 전파하여 Input을 Update하는 값이 Perturbation이라는 설명이 매우 직관적으로 이해되었습니다. 이어 혼동되기 쉬운 개념인 Adversarial Training과 Adversarial Learning에 대해서도 명확하게 설명해 주시어 이해에 큰 도움이 되었습니다. 이어서 기존 데이터와 더불어 Adversarial Attack에 대해 강건한 모델을 만드는 것이 목표인 Adversarial Training의 목표를 집어 주고, 이 관점에서 Adversarial Training을 Data Augmentation으로 볼 수 있는가? 라는 질문에 대해 실험을 통해 Data Augmentation으로 보기는 어렵다고 확인하고, Data Augmentation이란 Real World에 존재할 법한 데이터를 생성하는 것이라고 정의한 부분에서 많은 배움을 얻을 수 있었습니다.
    이어진 Defense GAN 논문에서는 Classifier 모델의 구조에 변경을 주지 않고 GAN의 Generator가생성한 이미지를 사용하여 Classifier를 학습하는 Defense-GAN-Rec 방식과, 기존과 동일한 방식으로 Classifier와 GAN을 독립적으로 학습하는 Defense-GAN-Orig 방식을 소개하며, Input Image와 Generated Image의 MSE를 감소시키는 방향으로 Z를 학습시켜 GAN이 Perturbation에 대해 강건하게 Image를 생성할 수 있도록 하는 방법을 소개했습니다.
    비판적으로 논문에 접근하는 자세와, 실험을 통해 모호한 개념을 정립해 나가는 과정에서 깊은 감명을 받았던 세미나였습니다. 감사합니다.


  • 2020-08-14 00:01

    금일 발표는 "Defense GAN"이라는 주제로 진행되었습니다. 본 발표에서는 GAN을 이용하여 adversarial attack을 방어하는 방법론에 대해 들을 수 있었습니다. 하지만, 본 발표에서 중심 논문보다 가장 흥미로웠던 부분은 adversarial example이 기존의 data augmentation의 효과가 있는지 입증하는 부분이었습니다. 서승완 박사과정은 해당 부분에 대하여 어떠한 reference를 찾기 보다 본인이 직접 실험을 진행하여 adversarial example이 data augmentation의 효과가 없다는 것을 스스로 입증하였습니다. 그동안 많은 세미나 발표를 청취했는데 이렇게 본인이 가진 의문에 대하여 본인이 직접하고 발표하는 것은 처음보게 되어 굉장히 대단하다는 생각이 들었고, 이러한 자세를 배워야겠다는 생각도 많이 들었습니다. 더불어 뒤이어 진행된 Defense GAN의 설명에서도 모델의 아이디어가 흥미로웠습니다. 저희가 일반적으로 GAN을 이용할 때 노이즈를 랜덤으로 주는데 본 논문에서는 inference 시에 최적의 노이즈를 찾고 이를 기반으로 classifier가 class를 예측해야 하는 이미지와 최대한 유사한 이미지를 생성하는 방식을 통해 adversarial attack을 방어하였습니다. 이러한 방법론을 보며 항상 사고의 전환이 필요하다는 생각이 들었고, 갖추어져있는 틀에 갖혀서 연구하지 말고 그런한 점들을 조금이라도 탈피하려고 노력해야겠다는 생각도 들었습니다. 마지막으로 서승완 박사과정이 지속적으로 adversarial example과 관련하여 개인연구를 진행하고 있는데 해당 부분에서도 좋은 결과를 얻을 수 있기를 바랍니다!


  • 2020-06-04 02:17

    이번 세미나는 Defence-GAN을 주제로 세미나가 진행되었습니다. 세미나는 크게 Adversarial traning의 개념, DefenceGAN 논문 리뷰, 개인연구로 나눠서 진행되었습니다. 연구실에 들어와서 Adversarial traning 분야에 대해 처음 접하게되었는데, 매 세미나 마다 자세한 설명을 들을 수 있어 이해도가 많이 높아진 것 같다는 생각을 하게되었습니다. 기본개념을 설명하는 파트에서 서승완 박사과정의 논리 전개 흐름을 보며, 이 분야에대해 얼마나 많은 고민을 했고 공부했는지 느낄 수 있었습니다. 또한 자칫 혼동할 수 있는 개념인 'Adversarial Traning'과 'Adversarial Learning'을 다시 한번 짚어주어 도움이 되었습니다. 발표에서 가장 인상깊었던부분은 Data augmentation과 adversarial traning에대한 발표자의 생각과, 그에대한 실험이었습니다. 'Data augmentation과 adversarial traning이 다르다'는 주장을 하기위해 실제로 실험을 진행하고, 그에 대한 생각을 나누는 과정에서 많은것을 배울 수 있었습니다. 특히 제가 생각하는 두가지 개념의 차이와 공통점들을 정리해볼 수있는 좋은기회였고, 다른 연구원분들의 생각들을 함께 나눌 수 있어 유익했습니다.

    의도적으로 gradient를 통해 classifier를 혼동시키는 adversarial example은 data augmentation의 의도와는 다르다고 생각하나, Vision이 아닌 분야에서 두가지 개념이 명확히 구분되지 않기때문에 다양한 의견이 있을 수 있다고 생각했습니다. (Graph domain에서 node를 추가하고 edge 연결을 바꾸어 Adversarial example을 생성했다고 하는것은 Image domain처럼 명확한 Adversarial example을 생성하는것과 다르다고 생각합니다)

    매 세미나 마다 논문을 완전히 이해하고 설명하는 발표자를 보며, 많은것을 배울 수 있었습니다. 특히 논문을 어느정도의 기준으로 이해해야하는지, 논리의 흐름을 어떻게 정립해나가야하는지 배울 수 있는 세미나였습니다. 개인연구에서도 좋은 결과가 나오길 기대합니다 !


  • 2020-06-04 03:40

    먼저 논문에 대해 핵심 아이디어에 대해 고찰해보면 결국 Inference 단에서 검증할 Image 데이터가 perturbation 내포하여 일반적인 모델의 decision boundary(분류 경계면)을 벗어나더라도 벗어난 Image를 벡터상에서 이동시키는 느낌을 받았습니다. 학습된 모델에 검증할 이미지를 넣기 전, Random 분포에서 noise를 뽑아 generator를 진행하고 검증할 이미지와의 차이를 더해주는 과정을 몇번의 iteration동안 반복하면서 점점 좌표계 영역을 확장/이동시키며 원래의 벡터공간에 떨어뜨리는 아이디어라 생각합니다. 이 때, 일반적으로 latent space에서 뽑힌 noise가 너무 왜곡된 부분에서 뽑히면 좌표계 영역을 확장/이동시켜도 원래 공간으로 못갈 수 있기 때문에 여러개의 noise(10개)로 실험하는 것을 볼 수 있습니다.
    논문 외에 발표자는 이전 세미나에서 연구원 분들이 질문한 내용을 다시 집어주는 모습도 인상깊었습니다. 이와 더불어, Data augmentation & Adversarial training 각각 특정 기법으로 발생한 데이터로 추가 학습하였을 때, 모델의 성능 변화를 개인적으로 cifar10으로 pilot test를 진행한 것도 인상깊었습니다. 저는 논문들에서 말한 설명을 받아드리고 넘어가는 부분들이 많은데 의문을 가지고 성능 실험을 한 부분은, 참된 연구자의 자세가 아닐까 합니다.
    개인 연구부분에서도 세미나에서는 '다양한 조건들을 실험하였는데 결과가 좋지않았다' 라고 빠르게 넘어갔는데 이를 진행하기 위해 많은 노력이 들었다는 것을 간접적으로 느꼈습니다. 결과는 좋지 않았지만 결국 유의미한 좋은 결과가 나오길 바랍니다.


  • 2020-06-04 19:56

    서승완 석박통합과정의 세미나 발표를 들었습니다. 이번에 발표해주신 논문은 Defense-GAN 논문이었습니다. 먼저 발표 초반부에 GAN, Adversarial Training 기본 컨셉과, 접근 방법, 최신 동향 등을 잘 설명해주셔서 발표를 들을 때 이해가 수월 했습니다. Defense-GAN 논문은 제목에서 알 수 있듯이 Generative Model 을 활용해서 Classifier 에 가해지는 Adversarial Attack 을 막을 수 있는 방법을 제시한 논문이었습니다. 해당 논문의 Main Contribution 으로 말씀해주신 내용 중 Classifier 에 대한 수정 없이 Attack 을 방어 가능한 것과 Z 를 학습하는 과정으로 인해 Attack 이 어렵다는 점은 Defense 하는 입장에서 쓴 논문에서 매우 큰 장점이라고 생각합니다. 개념적으로 어렵게 느꼈던 내용을 쉽게 설명 해주시고 시각적인 자료와 예시 등을 많이 들어주시는 등 발표자께서 청중을 위해 노력을 하신 발표라고 생각이 들었습니다. 개인 연구는 기존에 연구하시던 내용을 계속해서 발전시켜 나가고 실험을 다양하게 진행 중이신 것 같은데 잘 마무리 하셔서 좋은 연구 결과물 얻으시면 좋겠습니다. 발표 잘 들었습니다. 감사합니다.


  • 2020-06-05 11:12

    금일 세미나에서는 서승완 박사과정이 계속해서 연구를 수행중인 Adversarial Attack 관련 연구로 Defense-GAN에 대해서 다루어 보았습니다.
    해당 Defense-GAN은 GAN을 활용한 Anomaly detection을 수행한 Ano-GAN과 유사한 구조를 가져가며, Normal image의 reconstruction 과정을 통해 모델이 작동합니다. 세미나가운데 흥미로운 질문은 과연 Adversarial Training(AT)은 Data augmentation인가? 라는 질문이였습니다. AT는 adversarial attack에 robust한 model을 만드는 것이 목표이며, 특정 classifier의 gradients를 통하여 DNN을 속이는 adversarial example은 real world에 존재할 수 없으며, real world에는 존재하지 않는 인위적인 gradient를 통해 생성한 adversarial example은 다양한 변형을 통해 있을법한 데이터(Data augmentation)를 통해 강간한 모델의 학습을 도모하는 목적이 아닌 보안(security)와 모델의 robustness를 체크하는 목적으로 이해를 저는 이해하였습니다.
    기존의 GAN과 동일하게 generator와 discriminator 그리고, classifier를 독립적으로 학습을 수행 test단계에서 random noise z를 random seed를 달리하며, 기존 이미지와 G(z)의 pixel by pixel L2-loss를 최소화 하는 방향으로 업데이트하여 z*를 산출 본 defense-GAN은 input image 와 generated image의 MSE를 통해 z를 학습하며 이과정에서 perturbation이 자연스럽게 denoising되는 효과가 있다고 해석되며, 최근 f-anogan에서 z를 업데이트 하는 대신 encoder를 통하여 latent vector 를 mapping하는 구조를 제안하였으며, 이부분을 차용하여 Autoencoder 방식으로 normal image로부터 z*를 mapping하는 방식으로 향후 수행 예정이라 하였습니다.
    과거 제안하는 아이디어에 대한 성능에 대한 계속되는 의구심을 많은 반복실험을 통해서 확인해보자하는 자세가 인상적이였습니다.


  • 2020-06-05 12:02

    이번 세미나는 adversarial attack과 관련된 논문인 defense-gan 에 대한 세미나였습니다. 논문에 대한 본격적인 리뷰 이전 GAN과 adversarial example에 대한 리뷰를 차근차근 해 주셔서 이번 논문을 이해하는데 굉장한 도움이 됐습니다. 이 부분에서 정말 배울 점이 많다고 생각했습니다. 이번 세미나에서 인상깊었던 점은 data augmentation과 adversarial training의 개념을 확실히 잡기 위해 실험을 통해서 증명한 부분이었습니다. 다만 개인적으로 adversarial example이 data augmentation과 아예 다른 개념인지는 아직 좀 더 생각해 볼 만한 부분이 남아있다고 여겨졌습니다. 최근 자주 사용되는 mixup, cutout 등 실제 real world 등장하지 않을 것 같은 데이터를 만들어내는 방법들도 여러 논문들에서 자주 data augmentation으로 언급되고 있어 real world에 등장할 법한 데이터만 augmentation으로 인정할 수 있을지에 대해서는 조금 의문이 들었습니다. 최근 augmentation이 generalization performance를 높히기 위해 이미지를 변형시키는 일련의 과정들을 모두 포괄하는 단어들로 종종 사용이 되어지는 것 같습니다. 따라서 adversarial example은 이번 세미나에서의 실험에 따르면 성능이 좋진 않아도 어느정도 generalization performance를 높히는 효과가 있지 않나 하는 생각이 들었습니다. 조금 결이 다르지만 label 정보를 사용하지 않는 adversarial training 방법인 Virtual adversarial Training 방법도 generalization performance를 향상 시킬 수 있는 좋은 regularizer로 사용되는 것이 한 가지 예시가 될 수 있지 않을까 합니다. 하지만 분명 발표자님이 말씀하신 것과 같이 real world에 등장할 수 있는 augmentation과 그렇지 않은 타 방법들 간의 분류는 확실히 이루어질 수 있다고 생각하며 이 부분에 대해서는 다같이 좀 더 얘기할 만한 부분이라고 생각합니다. 또한 확장시켜 본격적인 연구 주제로 삼기에도 굉장히 좋은 부분이라고 생각합니다. 개인적으로 이번 발표에서 많은 영감을 받아 adversarial training, adversarial attack 관련 논문들을 좀 더 보고 공부해 볼 생각입니다.
    저는 항상 논문을 수동적으로 받아들이는 안좋은 습관이 있습니다. 서승완 박사과정의 발표마다 있는 생산적인 비판들을 본받으려고 항상 노력하고 있습니다. 이러한 자세야 말로 좋은 연구가 탄생할 수 있는 원동력이라고 생각합니다. 앞으로도 좋은 발표 부탁드립니다


전체 553
번호 제목 작성자 작성일 추천 조회
공지사항
Paper Reviews 2019 Q3
관리자 | 2020.03.12 | 추천 0 | 조회 14628
관리자 2020.03.12 0 14628
공지사항
Paper Reviews 2019 Q2
관리자 | 2020.03.12 | 추천 0 | 조회 13396
관리자 2020.03.12 0 13396
공지사항
Paper Reviews 2019 Q1
관리자 | 2020.03.12 | 추천 0 | 조회 14339
관리자 2020.03.12 0 14339
50
[Paper Review]Open Information Extraction (Open IE) (12)
Youngbin Ro | 2020.06.09 | 추천 0 | 조회 6841
Youngbin Ro 2020.06.09 0 6841
49
[Seminar]Mel Frequency Cepstrum Coefficient (12)
Donghwa Kim | 2020.06.05 | 추천 0 | 조회 6453
Donghwa Kim 2020.06.05 0 6453
48
[Paper Review] Defense-GAN (14)
Seungwan Seo | 2020.06.03 | 추천 0 | 조회 4560
Seungwan Seo 2020.06.03 0 4560
47
[Paper Review] ReMixMatch & FixMatch : Consistency-based Semi-supervised Learning Methods (14)
junghoon lee | 2020.05.29 | 추천 0 | 조회 8377
junghoon lee 2020.05.29 0 8377
46
[Paper Review] Transformer to T5 (XLNet, RoBERTa, MASS, BART, MT-DNN,T5) (13)
Yukyung Lee | 2020.05.25 | 추천 0 | 조회 14959
Yukyung Lee 2020.05.25 0 14959
45
[Paper Review] Deep Anomaly Detection With Outlier Exposure (14)
Kyoungchan Park | 2020.05.23 | 추천 0 | 조회 9685
Kyoungchan Park 2020.05.23 0 9685
44
[Paper Review] Scheduled sampling for one-shot learning via matching network (15)
Joongmin Park | 2020.05.19 | 추천 0 | 조회 4085
Joongmin Park 2020.05.19 0 4085
43
[Paper Review] Question Generation with BERT, GPT2 (12)
관리자 | 2020.03.13 | 추천 0 | 조회 6173
관리자 2020.03.13 0 6173
42
[Paper Review] Graph-BERT : only attention is needed for learning graph representations (10)
관리자 | 2020.03.12 | 추천 0 | 조회 6877
관리자 2020.03.12 0 6877
41
[Paper Review] Single Document Summarization & Graph Attention Networks (13)
관리자 | 2020.03.12 | 추천 0 | 조회 3657
관리자 2020.03.12 0 3657

Data Science & Business Analytics Lab.
Department of Industrial Engineering, College of Engineering,
Seoul National University

Contact Us

  • 강필성 교수 (pilsung_kang@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 301호 
  • 대학원 연구실 (총무 김재희: jaehee_kim@snu.ac.kr)
    서울특별시 관악구 관악로 1 서울대학교 공과대학 39동 411호