• 행사명[모두팝 세미나] 도둑을 집주인으로 인식한다고? : Adversarial Examples의 소개와 구현
  • 접수 기간: ~2023.3.26(화) 13:00
  • 일시: 2023.3.26(화) 19:30~21:30
  • 장소: 모두의연구소 강남캠퍼스 라운지(서울 강남구 강남대로 324 역삼디오슈페리움 2층) / 온라인
  • 참가 방법: 페스타에서 신청( https://festa.io/events/4928 )
  • 프로그램 요약: 딥러닝 보안의 최전선인 적대적 공격과 방어. 간단한 실습과 함께, 작은 변형만으로도 딥러닝 모델을 속일 수 있는 적대적 예제(Adversarial Examples)의 원리에 대해 이해해봅니다.
  • 프로그램 세부



1. 강연
 • 인공지능이 해킹을 당하면 어떻게 될까?
 • 강의 이해를 위한 딥러닝 네트워크 이해하기
 • 도둑을 집주인으로 인식한다고? 적대적 샘플의 소개
 • [실습] CleverHans 라이브러리와 FGSM과 PGD 기법으로 적대적 학습 모델 만들어보기
    ※ 오프라인: 현장에서만 진행되는 이벤트 있음 (실습 참가자 일부 시상)
 • 적대적 공격을 방어하려면?

2. Q&A


  • 참가 대상: 오프라인 30명 / 온라인 무제한
  • 딥러닝 기술을 활용하여 보안 체계를 강화하고자 하는 정보보안 분야의 현직자

  • 적대적 공격에 대한 이해를 바탕으로 보다 견고한 딥러닝 모델을 개발하고자 하는 인공지능 연구원

  • 영상 딥러닝과 정보보안에 관심 있는 인공지능/정보보안 분야 현직자 및 학생

  • 선수 지식: Python, TensorFlow(혹은 Pytorch), 딥러닝 기본 개념(가중치/손실함수 등을 이해할 만한 수준)에 대한 지식이 필요합니다.