컨텐츠상세보기

그로킹 딥러닝 - 알기 쉬운 비유와 기초 수학으로 시작하는 (커버이미지)
알라딘
그로킹 딥러닝 - 알기 쉬운 비유와 기초 수학으로 시작하는
  • 평점평점점평가없음
  • 저자앤드루 트라스크 (지은이), 박상현 (옮긴이) 
  • 출판사한빛미디어 
  • 출판일2019-12-01 
보유 1, 대출 0, 예약 0, 누적대출 0, 누적예약 0

책소개

- 딥러닝 문턱을 낮춰 드립니다. 수포자도 이해할 수 있는 명쾌하고 친절한 딥러닝 입문서!

인공지능은 단순한 유행이 아니라 시대의 요구사항이 되었습니다. 두 번의 AI 겨울을 지나고, 전 세계 바둑 챔피언을 꺽으며 새롭게 등장한 인공지능은 기술을 넘어 예술까지도 넘보며 다양한 산업과 함께 발전하고 있습니다. 실시간으로 빠른 길을 안내하는 지도 앱을 보며 길을 찾고 넷플릭스가 취향에 맞는 영화를 추천하고, 은행 앱이 투자 방향을 알려주는 개인 비서 시대, 영화속 스카이넷은 현실에서 점차 구체화되고 있습니다.

지금이 바로 여러분이 이 책을 읽어야 하는 '때'입니다. 딥러닝을 이해하는 데 필요한 모든 사전 지식은 이 책 안에 있습니다. 이 책을 위해 여러분이 준비할 것은 아무것도 없습니다. 쉬운 비유와 그림으로 차근차근 책에서 안내하는 대로 앞 장에서 배운 내용을 복기하며 다음 장의 코드를 입력하다 보면 어느새 딥러닝의 기본을 튼튼히 갖추게 될 것입니다.

누구를 위한 책인가요?

· 수학은 자신 없지만, 딥러닝을 배우고 싶은 개발자
· 딥러닝을 연구에 활용하고 싶은 개발자가 아닌 연구자
· 라이브러리를 활용해 딥러닝을 구현했지만 동작원리가 궁금한 개발자
· 프로그래밍에 능숙하진 않지만, 딥러닝 또한 배워두고 싶은 학생


어려운 수식, 고수준 라이브러리, 복잡한 코드 없이도 단계별 학습으로 완성하는 딥러닝 코드

이 책은 신경망이 어떻게 인간을 모사하는지를 먼저 알려줍니다. 복잡한 수식 없이 서너 줄짜리 간단한 코드로 신경망을 구축한 다음, 이 작은 코드 조각을 다음 장에서 활용해 조금 더 그럴 듯한 프로그램으로 점차 발전시켜갑니다. 책 전체에 걸쳐 다음과 같이 물 흐르듯 학습할 수 있습니다.

인공지능/딥러닝 용어 설명 → 예측, 비교, 학습 패러다임 실습 → 기초 신경망 구축 → 딥러닝 관련 이론 설명 → 최신 기법 소개 → 딥러닝 프레임워크 구축

그리고 마지막 장은 이 책을 읽은 다음 무엇을 할지 10단계에 거쳐 딥러닝을 처음 접하는 입문자에게 방향을 제시합니다.

이 책에서 배우고 구현하는 내용
딥러닝에 필요한 것 / 머신러닝의 기본 개념 / 예측, 비교, 학습 패러다임 / 기초 신경망 구현 / 예측 평가와 에러 식별 / 학습 과정 / 심층 신경망 실습 / 오버피팅 / 드롭아웃 / 경사하강법 / 활성화 함수 / 확률 모델링 / 합성곱 신경망 / 자연어 처리 / 순환 신경망 / 언어 모델링 / 데이터 프라이버시

저자소개

구글 DeepMind 리서치 사이언티스트. 인간의 언어와 연관된 딥러닝을 주로 연구하고 있습니다. Digital Reasoning에서 연구원으로 있으며 세계 최대 인공 신경망을 구축했습니다.

목차

__추천사

__옮긴이의 글

__독자들에게

__마음을 열고 이 책을 읽기 위한 사전 안내

__각 장의 내용 미리보기

__감사의 말



CHAPTER 1 딥러닝을 소개합니다 : 당신이 딥러닝을 공부해야 하는 이유

__딥러닝의 세계에 어서 오세요

__왜 딥러닝을 공부해야 할까요?

__딥러닝을 시작하기가 어렵진 않을까요?

__이 책으로 딥러닝을 공부해야 하는 이유

__시작에 앞서 필요한 지식과 실습 환경은?

__파이썬 지식이 조금 필요합니다

__요약



CHAPTER 2 딥러닝의 기초 개념 : 컴퓨터가 학습하는 원리


__딥러닝이란?

__머신러닝이란?

__지도 학습

__비지도 학습

__모수적 학습 vs 비모수적 학습

__모수적 지도 학습

__모수적 비지도 학습

__비모수적 학습

__요약



CHAPTER 3 신경망을 소개합니다 : 순전파


__신경망이 처음으로 할 일 : 예측

__예측을 수행하는 신경망

__신경망이 뭔가요?

__신경망이 하는 일이 궁금합니다

__복수 입력을 받아 예측하기

__신경망은 복수 입력을 어떻게 다루나요?

__복수 입력 코드 : 실행 가능한 완성 버전 코드

__복수 출력을 하는 예측하기

__복수 입력을 받아 복수 출력을 하는 예측

__복수 입력과 복수 출력 : 동작 원리

__예측에 관한 예측

__NumPy 빠르게 입문하기

__요약



CHAPTER 4 딥러닝을 소개합니다 : 경사하강법


__예측하고 비교하고 학습하라

__비교

__학습

__비교 : 여러분의 신경망은 예측을 잘하고 있습니까?

__오차를 측정하는 이유

__신경망 학습의 가장 간단한 형태는 어떤 걸까요?

__온냉 학습

__온냉 학습의 특징

__오차를 이용하여 이동 방향과 거리 계산하기

__경사하강법 1회 반복

__학습이란 오차를 줄이는 것

__학습의 여러 단계를 관찰해보세요

__왜 이게 작동하죠? weight_delta는 뭔가요?

__한 가지 개념에 집중하기

__툭 튀어나오는 막대기가 있는 상자

__미분계수 : 두 번째 이야기

__이건 몰라도 괜찮습니다

__미분계수를 학습에 이용하는 방법

__익숙한가요?

__경사하강법 망가뜨리기

__과잉 교정 시각화하기

__발산

__알파를 소개합니다

__코드 속의 알파

__외우기



CHAPTER 5 복수 가중치 동시에 학습하기 : 경사하강법 일반화 하기


__복수 입력을 받는 경사하강법

__복수 입력을 받는 경사하강법 이해하기

__학습의 각 단계를 관찰해보세요

__가중치 한 개 동결시키기

__복수 출력을 하는 경사하강법

__복수 입력을 받아 복수 출력을 하는 경사하강법

__가중치가 학습하는 것은 무엇일까요?

__가중치 시각화하기

__내적(가중합) 시각화하기

__요약



CHAPTER 6 첫 심층 신경망 만들기 : 역전파를 소개합니다


__신호등 문제

__데이터 준비하기

__행렬과 행렬 관계

__파이썬으로 행렬 만들기

__신경망 구축하기

__전체 데이터셋 학습하기

__전체, 배치, 확률적 경사하강법

__신경망은 상관관계를 학습합니다

__상향 압력과 하향 압력

__경계 조건 : 과적합

__경계 조건 : 서로 충돌하는 압력

__간접 상관관계 학습

__신경망 적층하기 : 복습

__역전파 : 장거리 오차 귀착법

__역전파는 왜 효과가 있는 걸까요?

__선형 vs 비선형

__아직 신경망이 동작하지 않는 이유

__간헐적 상관관계의 비밀

__짧은 휴식

__첫 심층 신경망 만들기

__코드로 만나는 역전파

__역전파의 한살이

__모두 합치기

__심층 신경망이 왜 중요한가요?



CHAPTER 7 신경망 사진 찍기 : 머릿속과 종이 위에


__이제 단순하게 만들어야 합니다

__상관관계 요약

__미리 너무 복잡해져 버린 시각화

__단순화한 시각화

__더 단순하게

__이 신경망이 예측하는 모습을 관찰해봅시다

__그림 대신 문자로 시각화하기

__변수 연결하기

__모두 나란히

__시각화 도구의 중요성



CHAPTER 8 신호 학습과 잡음 제거 : 정규화와 배치 소개


__3계층 신경망으로 MNIST 도전하기

__흠, 쉬운데요

__암기 vs 일반화

__신경망에서의 과적합

__오버피팅의 원인

__가장 단순한 정규화 : 조기 종료

__산업 표준 정규화 : 드롭아웃

__드롭아웃은 왜 효과가 있을까요 : 앙상블

__코드 속의 드롭아웃

__배치 경사하강법

__요약



CHAPTER 9 확률과 비선형성 모델링하기 : 활성화 함수


__활성화 함수란 무엇일까요?

__표준 은닉 계층 활성화 함수

__표준 출력 계층 활성화 함수

__핵심 사안 : 입력에 유사성이 있는 경우

__softmax 계산하기

__신경망 계층에 활성화 함수 추가하기

__delta에 기울기 곱하기

__출력을 기울기로 변환하기(미분계수)

__MNIST 신경망 업그레이드하기



CHAPTER 10 가장자리와 모서리를 학습하는 신경망 : CNN 소개


__여러 장소에서 가중치 재사용하기

__합성곱 계층

__NumPy로 간단하게 구현하기

__요약



CHAPTER 11 언어를 이해하는 신경망 : 왕-남자+여자 == ?


__언어를 이해한다는 것은 무엇을 의미할까요?

__NLP : 자연어 처리

__지도 NLP

__IMDB 영화 리뷰 데이터셋

__입력 데이터 안에서 단어 상관관계 포착하기

__영화 리뷰 예측하기

__임베딩 계층 기초

__출력 해석하기

__신경 아키텍처

__단어 임베딩 비교하기

__뉴런이 가지는 의미는 뭘까요?

__공란 채우기

__King - Man + Woman ~= Queen

__단어 유추

__요약



CHAPTER 12 셰익스피어처럼 글쓰기 : 순환 계층으로 가변 데이터 다루기


__임의의 길이를 향한 도전

__비교가 정말 중요할까요?

__평균 단어 벡터의 놀라운 힘

__임베딩은 어떻게 정보를 저장할까요?

__신경망은 임베딩을 어떻게 활용할까요?

__단어주머니 벡터의 한계

__단위행렬을 이용해서 단어 임베딩 총합하기

__정말 아무것도 바꾸지 않는 행렬

__전이행렬

__유용한 문장 벡터 생성하는 법 학습하기

__파이썬으로 순전파 하기

__어떻게 여기에 역전파를 넣을까요?

__학습시켜 봅시다!

__준비하기

__임의 길이로 순전파 하기

__임의의 길이로 역전파 하기

__임의의 길이로 가중치 갱신하기

__실행과 출력 분석

__요약



CHAPTER 13 자동 최적화를 소개합니다 : 딥러닝 프레임워크를 만들어봅시다


__딥러닝 프레임워크란?

__텐서를 소개합니다

__자동 미분, autograd를 소개합니다

__간단히 점검해보기

__여러 번 재사용되는 텐서

__텐서 재사용을 위한 자동 미분 업그레이드

__덧셈 역전파는 어떻게 이루어질까요?

__부정 연산 지원하기

__몇 가지 함수 더 지원하기

__자동 미분을 이용해서 신경망 학습하기

__자동 최적화 추가하기

__계층 형식 지원하기

__계층을 포함하는 계층

__손실 함수 계층

__프레임워크 배우기

__비선형 계층

__임베딩 계층

__자동 미분에 색인화 추가하기

__임베딩 계층 다시 생각하기

__교차 엔트로피 계층

__순환 신경망 계층

__요약



CHAPTER 14 셰익스피어처럼 글쓰기 : LSTM


__문자 언어 모델링

__부분 역전파의 필요성

__부분 역전파

__출력의 샘플

__소멸하는 기울기, 폭발하는 기울기

__RNN 역전파의 장난감 예제

__LSTM 셀

__LSTM 게이트에 관한 몇 가지 직관

__LSTM 계층

__문자 언어 모델 업그레이드하기

__LSTM 문자 언어 모델 학습하기

__LSTM 문자 언어 모델 튜닝하기

__요약



CHAPTER 15 보이지 않는 데이터로 하는 딥러닝 : 통합 학습 입문


__딥러닝의 개인정보 문제

__통합 학습

__스팸 탐지 학습

__통합해봅시다

__통합 학습 해킹하기

__보안 통합

__동형 암호화

__동형 암호화 통합 학습

__요약



CHAPTER 16 다음 도약을 위한 준비 : 작은 안내서


__축하합니다!

__1단계 : 파이토치를 배우세요

__2단계 : 새 딥러닝 수업을 수강하세요

__3단계 : 수학적으로 접근하는 딥러닝 교과서를 구하세요

__4단계 : 블로그를 개설해서 딥러닝을 가르치세요

__5단계 : 트위터

__6단계 : 학술 논문의 내용을 구현하세요

__7단계 : GPU를 사용할 수 있는 환경을 확보하세요

__8단계 : 급여를 받으면서 일하세요

__9단계 : 오픈소스 프로젝트에 참여하세요

__10단계 : 지역 커뮤니티를 발전시키세요



__찾아보기

한줄 서평