쉽게 속지 않는 인공지능을 위한 심층 신경망 강화 프로젝트
일상생활에 보편화된 인공지능 시스템은 자율 주행차, 음성 어시스턴트, 얼굴 인식 장치 등 다양한 곳에 활용된다. 인공지능의 발전과 더불어 인공지능 시스템을 속이려는 공격자가 곳곳에 도사리고 있으며, 의도적으로 시스템을 속이기 위한 악의적인 데이터가 만들어지고 있다. 이러한 데이터는 각종 데이터 속에 숨어서 다양한 방법으로 인공지능을 속인다.
이 책은 인공지능 시스템을 속이는 적대적 공격을 소개한다. 공격자가 시스템을 공격하는 동기를 파악하고 적대적 공격의 위험성을 알아본다. 또한 적대적 공격이 이미지, 오디오, 비디오 데이터를 활용해 인공지능을 속이는 실제 사례를 살펴본다. 신경망을 공격하는 방법과 공격을 방어하는 방법을 이해하며 인공지능 분야가 나아갈 미래를 알아보자.
CHAPTER 1 소개
1.1 딥러닝 소개
1.2 딥러닝 역사
1.3 인공지능의 ‘착시 현상'
1.4 ‘적대적 입력’이란 무엇인가
1.5 ‘적대적 머신러닝’의 광범위한 분야
1.6 적대적 입력의 의미
CHAPTER 2 공격 동기
2.1 웹 필터 우회
2.2 온라인 평판과 브랜드 관리
2.3 감시 위장
2.4 개인 정보 온라인
2.5 자율 주행차의 혼동
2.6 음성 제어 장치
CHAPTER 3 심층 신경망
3.1 머신러닝
3.2 딥러닝 개념
3.3 수학 함수로서의 심층 신경망 모델
3.4 간단한 이미지 분류기 만들기
CHAPTER 4 이미지, 오디오, 영상을 처리하는 심층 신경망
4.1 이미지
4.2 오디오
4.3 영상
4.4 적대적 고려 사항
4.5 ResNet50을 사용한 이미지 분류
CHAPTER 5 적대적 입력의 원리
5.1 입력 공간
5.2 DNN의 사고를 가능하게 하는 원리
5.3 섭동 공격: 변화의 최소화, 영향의 최대화
5.4 적대적 패치: 산만의 최대화
5.5 탐지 가능성 측정
5.6 요약
CHAPTER 6 적대적 섭동을 생성하는 방법
6.1 화이트 박스
6.2 제한된 블랙박스 방법
6.3 점수 기반 블랙박스 방법
6.4 요약
CHAPTER 7 시스템에 사용하는 공격 패턴
7.1 공격 패턴
7.2 재사용할 수 있는 섭동과 패치
7.3 통합: 하이브리드 접근법과 절충안
CHAPTER 8 물리적 공격
8.1 적대적 물체
8.2 적대적 음향
8.3 실생활 속에서 적대적 사례의 타당성
CHAPTER 9 모델 견고성 평가
9.1 적대적 목표, 역량, 제약, 정보
9.2 모델 평가
9.3 요약
CHAPTER 10 방어
10.1 모델 개선
10.2 데이터 전처리
10.3 대상 감추기
10.4 적대적 입력에 대항하는 강력한 방어 구축
CHAPTER 11 미래 동향: 속지 않는 견고한 인공지능
11.1 윤곽을 인식해 견고성 향상하기
11.2 다중감각 입력
11.3 객체 구성과 계층
11.4 마치며
출판사 리뷰
이 책은 인공지능이 이미지, 오디오, 비디오 데이터를 처리하기 위해 우리 일상생활에서 악용되는 실제 상황을 고려해 그곳에서 야기되는 적대적 입력의 동기, 실현 가능성, 위험성을 알아본다. 이 주제를 알기 쉽게 직관적으로 설명하는 동시에 수학적으로 조리 있게 설명하고, 인공지능 시스템을 적대적 입력에 맞서 어떻게 더 견고하게 만들 수 있는지 살펴본다.
인공지능을 속이는 방법을 이해하면 종종 베일에 싸인 듯 불투명해 보이던 심층 신경망 알고리즘, 그리고 이러한 알고리즘과 인간의 뇌가 감각 입력을 처리하는 방법상의 차이를 명확하게 알게 된다. 이 책은 이러한 차이와 어떻게 하면 이 둘 간의 격차를 좁혀 미래에 인공 학습이 생물학적 학습에 더 가까이 다가갈 수 있는지 그 방법을 탐색한다.
1부 인공지능을 속이는 기술: 적대적 입력과 공격 동기를 소개하고 이미지와 오디오 데이터 처리를 위한 딥러닝의 기본 개념을 설명한다.
2부 적대적 입력 생성하기: 적대적 입력과 적대적 입력을 생성하는 방법을 구체적으로 설명한다.
3부 실제 위협 이해하기: 2부에서 설명한 방법을 기반으로 공격자가 실제 세계에서 사용하는 공격 방법과 이때 마주하는 어려움을 알아본다.
4부 방어: 3부의 내용을 기반으로 적대적 입력을 방어하는 방법을 알아본다.