상세정보
딥러닝의 정석
- 저자
- 니킬 부두마 저/고광원,금경목 공역
- 출판사
- 한빛미디어
- 출판일
- 2018-03-05
- 등록일
- 2018-07-11
- 파일포맷
- PDF
- 파일크기
- 10MB
- 공급사
- YES24
- 지원기기
-
PC
PHONE
TABLET
웹뷰어
프로그램 수동설치
뷰어프로그램 설치 안내
책소개
신경망 기초부터 강화학습까지, 텐서플로로 익히는 딥러닝 이론과 구현 딥러닝에 대한 연구가 매우 활발해지면서 현대 머신러닝의 새로운 길이 열리고 있다. 구글, 마이크로소프트, 페이스북 같은 글로벌 기업들도 사활을 걸고 딥러닝을 연구하고 있다. 이 책은 딥러닝의 주요 개념을 이해할 수 있도록 상세한 설명과 예제를 제공한다. 파이썬에 익숙하고 머신러닝 및 미적분에 대한 배경지식이 있다면 이 책으로 딥러닝을 제대로 시작할 수 있다.
저자소개
1차 의료기관을 위한 데이터 기반의 새로운 시스템을 구축하는 Remedy 사의 공동 창립자이자 수석 과학자이다. 16세의 나이에 신약 개발 실험실을 관리하며 자원이 제한된 커뮤니티들을 위해 새로운 저비용의 스크리닝 방법을 개발했다. 19세 때까지 국제 생물학 올림피아드에서 두 차례 금메달을 받았으며 이후 MIT에서 의료 전달체계와 정신 건강 및 의학 연구에 영향을 주는 대규모 데이터 시스템 개발에 집중했다. 또한, MIT에서 국가 비영리 단체인 ‘Lean On Me’를 공동 설립했다. 이 단체는 동료 지원 효율을 높이고 정신 건강과 건강 관리에 도움 되는 데이터를 활용한 익명의 문자 핫라인을 대학 캠퍼스에 제공한다. 벤처 펀드인 ‘Q Venture Partners’를 설립하고 하드 테크놀로지 및 데이터 회사에 투자했으며, 밀워키 브루어스(Milwaukee Brewers) 구단의 데이터 분석팀을 관리하며 여가를 보낸다.
목차
CHAPTER 1 신경망_1.1 지능형 기계 만들기 _1.2 기존 컴퓨터 프로그램의 한계 _1.3 머신러닝의 작동 원리 _1.4 뉴런 _1.5 뉴런으로 선형 퍼셉트론 표현하기 _1.6 전방향 신경망 _1.7 선형 뉴런과 그 한계 _1.8 시그모이드, tanh, ReLU 뉴런 _1.9 소프트맥스 출력층 _1.10 요약 CHAPTER 2 전방향 신경망 학습_2.1 패스트푸드 문제 _2.2 경사 하강법 _2.3 델타 규칙과 학습률 _2.4 시그모이드 뉴런의 경사 하강법 _2.5 역전파 알고리즘 _2.6 확률적 경사 하강법과 미니배치 경사 하강법 _2.7 테스트 데이터와 검증 데이터 그리고 과적합 _2.8 신경망에서 과적합 막기 _2.9 요약 CHAPTER 3 텐서플로로 신경망 구현하기_3.1 텐서플로란? _3.2 텐서플로와 대안들을 어떻게 비교할까? _3.3 텐서플로 설치하기 _3.4 텐서플로 변수 만들기와 조작하기 _3.5 텐서플로 연산 _3.6 placeholder 텐서 _3.7 텐서플로의 세션 _3.8 변수 범위 탐색과 변수 공유 _3.9 CPU와 GPU로 모델 관리하기 _3.10 텐서플로에서 로지스틱 회귀 모델 지정하기 _3.11 로지스틱 회귀 모델 기록하기와 학습시키기 _3.12 텐서보드로 계산 그래프와 학습 시각화하기 _3.13 텐서플로에서 MNIST를 위한 다층 모델 만들기 _3.14 요약 CHAPTER 4 경사 하강법을 넘어서_4.1 경사 하강법의 과제_4.2 심층 신경망의 오차 곡면에서 지역 최소값 _4.3 모델 식별성 _4.4 심층 신경망에서 가짜 지역 최소값들은 얼마나 다루기 어려운가? _4.5 오차 곡면의 평평한 구간 _4.6 잘못된 방향의 경사_4.7 모멘텀 기반 최적화 _4.8 이차 방법에 대한 개요 _4.9 학습률 적응 _4.10 최적화 도구 선택의 철학 _4.11 요약 CHAPTER 5 합성곱 신경망_5.1 인간 시각에서의 뉴런_5.2 특징 선택의 단점 _5.3 크기 조정 없는 기본 심층 신경망 _5.4 필터와 특징 맵 _5.5 합성곱층 정리 _5.6 최대 풀링 _5.7 합성곱 신경망의 전체 구조 _5.8 합성곱 신경망으로 MNIST에서 순환 반복 끝내기 _5.9 더 견고한 모델을 만드는 이미지 전처리 파이프라인 _5.10 배치 정규화로 학습 가속하기 _5.11 CIFAR-10을 위한 합성곱 신경망 만들기 _5.12 합성곱 신경망 학습 시각화하기 _5.13 합성곱 필터로 예술 스타일 복제하기 _5.14 다른 문제 영역에서 합성곱 필터 학습하기 _5.15 요약 CHAPTER 6 임베딩과 표상학습_6.1 저차원 표현 학습하기 _6.2 주성분 분석 _6.3 오토인코더 구조의 동기 _6.4 텐서플로로 오토인코더 구현하기 _6.5 견고한 표현을 강제하는 디노이징 _6.6 오토인코더의 희소성 _6.7 입력 벡터보다 문맥이 더 유익할 때 _6.8 Word2Vec 프레임워크 _6.9 Skip-Gram 구조 구현하기 _6.10 요약CHAPTER 7 시퀀스 분석을 위한 모델_7.1 가변 길이 입력 분석하기 _7.2 신경망 n-gram으로 seq2seq 해결하기 _7.3 품사 태거 구현하기 _7.4 의존 구문 분석과 SyntaxNet _7.5 빔 탐색과 전역 정규화 _7.6 상태 기반 딥러닝 모델 사례 _7.7 순환 신경망 _7.8 사라지는 경사도 문제 _7.9 LSTM 유닛 _7.10 RNN 모델을 위한 텐서플로 기초 요소 _7.11 감정 분석 모델 구현하기 _7.12 순환 신경망으로 seq2seq 과제 풀기 _7.13 주의집중으로 순환망 증강하기 _7.14 신경 번역망 해부하기 _7.15 요약 CHAPTER 8 메모리 증강 신경망_8.1 신경 튜링 기계 _8.2 주의집중 기반 메모리 접근 _8.3 NTM 메모리 주소 지정 동작 방식 _8.4 미분 가능 신경 컴퓨터 _8.5 DNC에서 간섭 없는 쓰기 _8.6 DNC 메모리 재사용 _8.7 DNC 쓰기의 시간적 연결 _8.8 DNC 읽기 헤드 이해 _8.9 DNC 제어기 신경망 _8.10 동작 중인 DNC 시각화하기 _8.11 텐서플로에서 DNC 구현하기 _8.12 읽기와 이해를 위한 DNC 가르치기 _8.13 요약 CHAPTER 9 심층 강화학습_9.1 아타리 게임을 점령한 심층 강화학습 _9.2 강화학습이란? _9.3 마르코프 결정 과정 _9.4 탐색 대 활용 _9.5 정책 대 가치학습 _9.6 정책 경사가 있는 막대기-수레 문제 _9.7 Q 러닝과 DQN _9.8 DQN 개선하기 _9.9 요약