로그인정보 입력 영역

내서재

더보기

로그인 후 이용가능합니다.

전자책

  • 다운로드
  • 뷰어사용안내
  • 자료대출안내

새로나온 책

더보기

공지사항

더보기

컨텐츠상세보기

모두를 위한 메타러닝 - PyTorch를 활용한 Few-shot 학습 모델과 빠른 강화학습 에이전트 만들기 (커버이미지)
알라딘
모두를 위한 메타러닝 - PyTorch를 활용한 Few-shot 학습 모델과 빠른 강화학습 에이전트 만들기
  • 평점평점점평가없음
  • 저자정창훈, 이승현, 이동민, 장성은, 이승재, 윤승제 (지은이), 최성준 (감수) 
  • 출판사위키북스 
  • 출판일2022-10-25 
보유 1, 대출 0, 예약 0, 누적대출 0, 누적예약 0

책소개

지도학습과 강화학습을 위한 최신 기술 메타러닝을 이해하자!

이 책은 최근 인공지능과 머신러닝 분야에서 각광받고 있는 메타러닝에 대한 입문 서적입니다. 독자 여러분께서 다소 생소할 수 있는 메타러닝에 대한 개념을 이해하고 실제로 세부 알고리즘들까지 구현해보는 기회를 제공하는 것을 목표로 합니다. 특히 메타러닝에서 회귀 문제, 분류 문제를 다루는 메타 지도학습뿐 아니라, 강화학습을 소개하고 이에 대해 메타러닝을 적용한 메타 강화학습까지 심도 있게 다루는 것이 이 책의 큰 장점입니다. 처음에는 다소 생소할 수 있지만, 꾸준히 이 책을 반복해서 읽고 실습하면 멋진 최신 머신러닝 기술인 메타러닝을 한층 깊이 이해할 수 있을 것입니다.

★ 이 책에서 배우는 내용 ★

◎ 아나콘다 설치와 활용, PyTorch 및 Torchmeta 라이브러리 활용
◎ 머신러닝에서의 메타러닝의 개념
◎ 메타 지도학습의 개념 및 여러 알고리즘 소개
◎ 기본 강화학습 개요
◎ 메타 강화학습의 개념 및 여러 알고리즘 소개
◎ 오픈챌린지와 메타러닝 애플리케이션

저자소개

동국대학교에서 컴퓨터공학을 전공하고 서울대학교 컴퓨터공학부에서 박사과정 중에 있습니다. 메타러닝을 연구하고, 최근에는 메타 강화학습, 오프라인 강화학습에 관심을 가지고 연구하고 있습니다.

목차

▣ 1장: 메타러닝 개요

1.1 머신러닝과 딥러닝

1.2 메타러닝이란?

1.3 메타러닝 학습 환경 구축

___1.3.1 아나콘다 설치와 사용

___1.3.2 아나콘다 설치

___1.3.3 깃허브 저장소 클론 및 환경 구축



▣ 2장: 메타 지도학습

2.1 메타러닝 문제 정의

___2.1.1 태스크 정의

___2.1.2 메타러닝 데이터셋

___2.1.3 메타러닝

___2.1.4 실습: Torchmeta 라이브러리 소개

2.2 모델 기반 메타러닝

___2.2.1 모델 기반 메타러닝의 핵심 개념

___2.2.2 NTM(Neural Turing Machines)

___2.2.3 MANN(Memory-Augmented Neural Networks)

___2.2.4 실습: MANN 구현

___2.2.5 SNAIL(Simple Neural Attentive Meta-Learner)

___2.2.6 실습: SNAIL 구현

2.3 최적화 기반 메타러닝

___2.3.1 전이학습과 최적화 기반 메타러닝

___2.3.2 MAML과 FOMAML

___2.3.3 실습: MAML-Regression

___2.3.4 실습: MAML-Classification

2.4 메트릭 기반 메타러닝

___2.4.1 KNN과 메트릭 기반 메타러닝

___2.4.2 Matching 네트워크

___2.4.3 실습: Matching 네트워크 구현

___2.4.4 Prototypical 네트워크

___2.4.5 실습: Prototypical 네트워크 구현

2.5 메타러닝 알고리즘 속성과 장단점

___2.5.1 메타러닝 알고리즘의 세 가지 속성

___2.5.2 메타러닝 알고리즘 비교



▣ 3장: 강화학습 개요

3.1 마르코프 결정 과정, 정책, 가치함수

___3.1.1 마르코프 결정 과정

___3.1.2 정책과 강화학습의 목표

___3.1.3 가치 함수

3.2 탐험과 활용

3.3 강화학습 알고리즘의 종류

___3.3.1 On-policy와 Off-policy

___3.3.2 정책 기반 알고리즘

___3.3.3 가치 기반 알고리즘

___3.3.4 액터 크리틱 알고리즘

3.4 TRPO(Trust Region Policy Optimization)

___3.4.1 TRPO 아이디어

___3.4.2 Surrogate 목적 함수와 제약 조건

___3.4.3 켤레 그라디언트법 기반 최적화

3.5 PPO(Proximal Policy Optimzation)

___3.5.1 PPO 아이디어

___3.5.2 Clipped Surrogate 목적함수

___3.5.3 PPO 알고리즘

3.6 SAC(Soft Actor Critic)

___3.6.1 엔트로피

___3.6.2 최대 엔트로피 강화학습

___3.6.3 가치함수 및 정책 학습

___3.6.4 SAC 알고리즘



▣ 4장: 메타 강화학습

4.1 메타 강화학습

___4.1.1 태스크 개념 소개

___4.1.2 메타 강화학습 문제 정의

___4.1.3 MuJoCo 및 Half-Cheetah 환경 개념 소개

4.2 순환 정책 메타 강화학습

___4.2.1 GRU

___4.2.2 순환 정책 메타 강화학습

___4.2.3 RL2

___4.2.4 실습: RL2 구현

4.3 최적화 기반 메타 강화학습

___4.3.1 MAML-RL

___4.3.2 실습: MAML-RL 구현

4.4 컨텍스트 기반 메타 강화학습

___4.4.1 태스크 추론 관점에서의 메타 강화학습

___4.4.2 컨텍스트 기반 정책

___4.4.3 변분적 추론

___4.4.4 PEARL(Probabilistic Embeddings for Actor critic RL)

___4.4.5 실습: PEARL 구현



▣ 5장: 오픈 챌린지와 메타러닝 애플리케이션

5.1 오픈 챌린지(Open Chanllenges)

___5.1.1 메타 과적합

___5.1.2 치명적 망각과 지속 학습

___5.1.3 부족한 벤치마크

___5.1.4 부족한 레이블된 데이터와 메타 비지도 학습

5.2 메타러닝 애플리케이션

___5.2.1 컴퓨터 비전

___5.2.2 강화학습

___5.2.3 자연어 처리

___5.2.4 의료

___5.2.5 마치며

한줄 서평