1장. 한눈에 보는 머신러닝
1.1 머신러닝이란?
1.2 왜 머신러닝을 사용하는가?
1.3 머신러닝 시스템의 종류
1.4 머신러닝의 주요 도전 과제
1.5 테스트와 검증
2장. 머신러닝 프로젝트 처음부터 끝까지
2.1 실제 데이터로 작업하기
2.2 큰 그림 보기
2.3 데이터 가져오기
2.4 데이터 이해를 위한 탐색과 시각화
2.5 머신러닝 알고리즘을 위한 데이터 준비
2.6 모델 선택과 훈련
2.7 모델 세부 튜닝
2.8 론칭, 모니터링, 그리고 시스템 유지 보수
핸즈온 머신러닝
사이킷런과 텐서플로를 활용한 머신러닝, 딥러닝 실무
스터디 소개
소개
-
01 여러개의 세션 스터디 1회는 각자가 담당한
여러개의 세션으로 구성됩니다. -
02 내용정리+심화토론 하나의 세션은 [내용정리+심화토론]으로
구성됩니다. - 발표형, 실습형, 토론형 등 주제에 맞게 선택해서 진행 -
03 전체 회고 모든 세션 종료 후 전체 회고를
진행합니다. - 오늘 스터디의 좋았던 점 / 개선할 점 등 공유 -
04 네트워크 스터디원의 참가율이 높은
우수 스터디는 회식비를
지원해드립니다.
참가대상
- <핸즈온 머신러닝>에 도전은 해봤지만 도무지 혼자서는 이해가 안되는 분
- 낮은 단계의 데이터 분석은 알고 있으나 보다 더 어려운 부분에 도전하고 싶은 분
- 개발자라서 텐서플로우는 따라할 수 있는데 머신러닝/딥러닝 이론이 약한 분
상세정보
- 일정2019년 03월 예정
- 시간미정
- 장소러닛 압구정센터 지도보기
- 참가비 월 6만원 x 2개월 = 12만원
후기
커리큘럼 소개

-
-
3장. 분류
3.1 MNIST
3.2 이진 분류기 훈련
3.3 성능 측정
3.4 다중 분류
3.5 에러 분석
3.6 다중 레이블 분류
3.7 다중 출력 분류
4장. 모델 훈련
4.1 선형 회귀
4.2 경사 하강법
4.3 다항 회귀
4.4 학습 곡선
4.5 규제가 있는 선형 모델
4.6 로지스틱 회귀 -
5장. 서포트 벡터 머신
5.1 선형 SVM 분류
5.2 비선형 SVM 분류
5.3 SVM 회귀
5.4 SVM 이론
6장. 결정 트리
6.1 결정 트리 학습과 시각화
6.2 예측하기
6.3 클래스 확률 추정
6.4 CART 훈련 알고리즘
6.5 계산 복잡도
6.6 지니 불순도 또는 엔트로피?
6.7 규제 매개변수
6.8 회귀
6.9 불안정성 -
7장. 앙상블 학습과 랜덤 포레스트
7.1 투표 기반 분류기
7.2 배깅과 페이스팅
7.3 랜덤 패치와 랜덤 서브스페이스
7.4 랜덤 포레스트
7.5 부스팅
7.6 스태킹
8장. 차원 축소
8.1 차원의 저주
8.2 차원 축소를 위한 접근 방법
8.3 PCA
8.4 커널 PCA
8.5 LLE
8.6 다른 차원 축소 기법 -
9장. 텐서플로 시작하기
9.1 설치
9.2 첫 번째 계산 그래프를 만들어 세션에서 실행하기
9.3 계산 그래프 관리
9.4 노드 값의 생애주기
9.5 텐서플로를 이용한 선형 회귀
9.6 경사 하강법 구현
9.7 훈련 알고리즘에 데이터 주입
9.8 모델 저장과 복원
9.9 텐서보드로 그래프와 학습 곡선 시각화하기
9.10 이름 범위
9.11 모듈화
9.12 변수 공유
10장. 인공 신경망 소개
10.1 생물학적 뉴런에서 인공 뉴런까지
10.2 텐서플로의 고수준 API로 다층 퍼셉트론 훈련하기
10.3 텐서플로의 저수준 API로 심층 신경망 훈련하기
10.4 신경망 하이퍼파라미터 튜닝하기 -
11장. 심층 신경망 훈련
11.1 그래디언트 소실과 폭주 문제
11.2 미리 훈련된 층 재사용하기
11.3 고속 옵티마이저
11.4 과대적합을 피하기 위한 규제 방법
11.5 실용적 가이드라인
12장. 다중 머신과 장치를 위한 분산 텐서플로
12.1 단일 머신의 다중 장치
12.2 다중 머신의 다중 장치
12.3 텐서플로 클러스터에서 신경망 병렬화하기 -
13장. 합성곱 신경망
13.1 시각 피질의 구조
13.2 합성곱층
13.3 풀링층
13.4 CNN 구조
14장. 순환 신경망
14.1 순환 뉴런
14.2 텐서플로로 기본 RNN 구성하기
14.3 RNN 훈련하기
14.4 심층 RNN
14.5 LSTM 셀
14.6 GRU 셀
14.7 자연어 처리 -
15장. 오토인코더
15.1 효율적인 데이터 표현
15.2 과소완전 선형 오토인코더로 PCA 수행하기
15.3 적층 오토인코더
15.4 적층 오토인코더를 사용한 비지도 사전훈련
15.5 잡음제거 오토인코더
15.6 희소 오토인코더
15.7 변이형 오토인코더
15.8 다른 오토인코더들
16장. 강화 학습
16.1 보상을 최적화하기 위한 학습
16.2 정책 탐색
16.3 OpenAI 짐(Gym)
16.4 신경망 정책
16.5 행동 평가: 신용 할당 문제
16.6 정책 그래디언트
16.7 마르코프 결정 과정
16.8 시간차 학습과 Q-러닝
16.9 DQN 알고리즘으로 미스 팩맨 플레이 학습하기
