Machine Learning 강의노트 01. Introduction 02. Linear Regression 1) Univariate Linear Regression a. Pytorch Example b. TensorFlow Example 2) Parameter Learning (Gradient Descent) a. Pytorch example b. TensorFlow example 3) Multivariate Linear Regression a. Pytorch Example 4) Gradient Descent in Practice a. Pytorch Example: Dataset 5) Features and Polynomial Regression a. Pytorch Example: Evaluation 6) Computing Parameters Analytically 03. Logistic Regression 1) Hypothesis Representation 2) Decision Boundary 3) Cost Function & Gradient Descent 4) Advanced Optimization 5) Multi-Class Classification 04. Regularization 1) Cost Function 2) Regularized Linear Regression 3) Regularized Logistic Regression 05. Neural Networks 1) Model Representation 2) Cost Function 3) Back-Propagation Algorithm I 4) Back-Propagation Algorithm II 5) Implementation Notes 6) Put it Together 06. Advice for Applying Machine Learning 1) Machine Learning Diagnostic 2) Bias vs. Variance 3) Learning Curves 4) Deciding What to do Next (Revisited) 07. Machine Learning System Design 1) Building a Spam Classifier 2) Handling Skewed Data 3) Using Large Data Sets 08. Support Vector Machines 1) Decision Boundary: Large Margin 2) Kernels 3) Using an SVM 09. Unsupervised Learning 1) K-Means Algorithm 2) Optimization Objective 3) Random Initialization 4) Choosing the Number of Clusters 10. Dimensionality Reduction 1) Principal Component Analysis 2) Reconstruction from Compressed Representation 3) Choosing the Number of Principal Components 4) Advice for Applying PCA 5) Factor Analysis 6) Linear Discriminant Analysis 11. Anomaly Detection 1) Density Estimation 2) Building an Anomaly Detection System 3) Choosing what Features to Use 12. Recommender Systems 1) Content Based Recommendation 2) Collaborative Filtering 3) Low Rank Matrix Factorization 4) Implementational detail 13. Large Scale Machine Learning 1) Gradient Descent with Large Datasets 2) Advanced Topics 14. Application Example: Photo OCR A-1. Probability and Likelihood A-2. AdaBoost A-3. Gaussian Mixture Model A-4. Feature Selection
    Published with WikiDocs
    1. Machine Learning 강의노트
    1. 도서 증정 이벤트 !!
    2. 위키독스

    Machine Learning 강의노트

    지은이 : 박수진
    최종 편집일시 : 2021년 9월 30일 10:02 오전
    저작권 :
    475 명이 추천

    Andrew Ng 교수님 Coursera 강의 내용 정리 노트입니다. 본래 개인적으로 정리하는 것이 목적었어서 강의내용을 모두 포함하지는 않으며, 강의에 없는 내용이라도 필요한 설명은 보충하고 있습니다. 영어강의가 익숙하지 않으신 분들께서 국문 보조교재로 참고하실 수 있을 것 같아서 공개하였습니다.

    Tensorflow 로 딥러닝 시스템 구현을 원하시는 분은 Sung Kim 교수님 "모두를 위한 딥러닝" 강의를 참고하셔도 좋습니다. 이 강의를 본 노트에 추가하는 계획은 중단되었습니다.

    대신, PyTorch 로 구현하는 방법을 업데이트 하고 있습니다. (2020년 3월 현재)

    내용 상 오류/피드백 또는 질문은 댓글로 부탁드립니다.

    #머신러닝 #기계학습 #machinelearning #machine_learning #Python #TensorFlow

    최근 댓글 (20) 최근 수정글 (10) RSS
    01. Introduction - 박수진, 2019년 6월 9일 11:42 오전
    @Dohyun 안녕하세요, 죄송합니다만 현재 노트 전체를 출력하는 기능은 따로 제공하고 있지 않습니다.
    2) Regularized Linear Regression - 박수진, 2019년 4월 20일 8:33 오전
    GD에서 제곱 부분은 오타입니다... 추후 수정하겠습니다.
    01. Introduction - Dohyun, 2019년 1월 30일 5:42 오후
    와, 좋은 정리 감사합니다. 개인공부용으로 인쇄하고 싶은데, 혹시 노트 전체를 한꺼번에 출력하는 방법이 있을까요?
    4) Back-Propagation Algorithm II - ARAIS, 2019년 1월 23일 2:02 오전
    What is BP Doing? 에서 cost(i)에서는 Andrew Ng교수님이 실수한게 맞더군요. https://www.ics.uci.edu/~pjsadows/notes.pdf의 수식 (1)의 Cross Entropy Error 표현을 보면 log(1-h0(x))로 표현되어있습니다.
    3) Low Rank Matrix Factorization - 박수진, 2019년 1월 16일 6:05 오전
    @진호 안녕하세요, 피드백 감사합니다. 말씀하신대로 해당 내용은 이 단원에 속한다고 보기 어렵습니다만, Ng교수님의 수업과정 순서와 맞추기 위해 mean normalization은 별도의 implementational detail 페이지로 구성하였습니다.
    3) Low Rank Matrix Factorization - 진호, 2019년 1월 15일 11:59 오후
    Mean Normalization 내용은 CF 알고리즘에 관한 페이지로 옮기는게 좋을것 같아요.
    1) Univariate Linear Regression - Junho Park, 2018년 12월 14일 1:20 오후
    이해가 안되는 부분이 있었는데 해결되었습니다. 정리 감사합니다.
    3) Cost Function & Gradient Descent - 박수진, 2018년 10월 8일 4:00 오후
    @튤맆 후자입니다. 즉, j번째 feature의 값을 의미합니다.
    3) Cost Function & Gradient Descent - 튤맆, 2018년 10월 5일 3:18 오후
    x(i)_j 의 의미가 x(i) 벡터의 모든 엘레멘츠를 더한 값인가요 x(i) 벡터의 특정 j feature의 값을 의미하나요?
    3) Cost Function & Gradient Descent - 박수진, 2018년 9월 28일 6:45 오전
    @구머 안녕하세요, 다른 cost function을 쓰는 classifier 도 존재합니다 (support vector machine 항목 참고).
    2) Cost Function - 박수진, 2018년 9월 25일 5:09 오전
    @종훈 안녕하세요, 확인해보니 최근 Coursera에서 정리한 렉쳐노트의 notation 이 제가 강의를 들을 때와 조금 달라진 것 같습니다. 혼란을 피하기 위해 notation을 맞췄습니다. 알려주셔서 감사합니다.
    3) Cost Function & Gradient Descent - 구머, 2018년 9월 20일 11:51 오전
    cost function을 log로 한것에 특별한 이유가 있나요? 로그가 아니여도 cost function의 특징(h=0 일때 cost=무한)만 있으면 다른 비슷한 것을 써도 무방한가요? 이 케이스에서만 해당하는 것인가요?아니면 대부분의 경우 log를 쓰나요?..
    1) Model Representation - 박수진, 2018년 8월 10일 3:39 오전
    @학부생 안녕하세요, 현재 이 강의노트는 "저작자표시-비영리-동일조건변경허락" 라이센스 하에 공개하고 있습니다. 결론부터 말씀드리자면, 학부생님께서 비영리 목적의 블로그를 운영하고 계시다면 본 강의노트의 저작자를 표시하고 재배포하실 수 있습니다. 자세한 내용은 다음 페이지를 참고해주세요. https://creativecommons.org/licenses/by-nc-sa/2.0/kr/
    1) Model Representation - 학부생, 2018년 8월 9일 10:29 오전
    안녕하세요? 작성하신 글 잘 보고 있습니다. 제가 이 곳에서 참고한 내용들을 개인 공부정리 블로그에 사진으로 캡쳐해서 정리하고 싶은데 제 블로그에 출처를 밝히고 해당 내용을 캡쳐해서 스크랩해도 될까요?
    01. Introduction - 재민, 2018년 6월 26일 8:56 오후
    좋은 정보 감사합니다아 ~_~
    2) Cost Function - 종훈, 2018년 5월 24일 11:02 오전
    안녕하세요. 덕분에 열심히 공부하고 있습니다. NN의 Cost Function 식에서 뒷 부분 i의 sum에 대한 표현이 조금 생략된 것 같아 댓글 남깁니다. \sum_{i=1}^{s_l} \sum_{j=1}^{s_{l+1}} 로 수정되야 할 것 같습니다. 감사합니다.
    3) Multivariate Linear Regression - TaeHan, 2018년 5월 2일 6:57 오후
    multiple은 dependent variable이 하나인 상태에서 가령 y가 m*1 vector이고 independent variable이 여러개인 모델이고, multivariate는 y가 여러종류라서 매트릭스 형태로 나타나는, 가령 Y가 m * p형태로 나타나는 모델로 알고 있습니다. https://stats.stackexchange.com/questions/2358/explain-the-difference-between-multiple-regression-and-multivariate-regression
    b. TensorFlow example - heonseop, 2018년 1월 4일 11:24 오후
    안녕하세요, 전헌섭 입니다. 잘 배우고 있습니다. 감사드립니다. 다름이 아니라 위에 실습하다, 누락된것이 있는 듯 해서 올립니다. # Launch the graph in a session sess = tf.Session() # Initialize global variables in the graph sess.run(tf.global_variables_initializer()) for step in range(21): sess.run(update, feed_dict …
    08. Support Vector Machines - Nick, 2017년 10월 23일 4:51 오후
    동영상 강의 보면서 여기에 있는 자료를 보조 자료로 함께 보고 있는데 정말 도움이 많이 되고 있습니다. 좋은 자료 정말 감사드립니다!
    01. Introduction - 박수진, 2017년 8월 10일 8:12 오전
    @예설 감사합니다, 수정하였습니다.
    a. Pytorch Example - 2021년 9월 30일 10:02 오전
    [TOC] # Data generation $$ y=1+2x $$ ``` import numpy as np # Data Generation n…
    1) Gradient Descent with Large Datasets - 2020년 4월 1일 7:29 오전
    [TOC] # Learning with Large Datasets 알고리즘이 high variance인 경우에는 큰 dataset이 도움이 된…
    a. Pytorch Example: Dataset - 2020년 3월 26일 3:41 오후
    [TOC] # Dataset Pytorch에서 Datset class에서 상속된다. 일종의 tuple 들의 list로 생각할 수 있고, 각 t…
    a. Pytorch Example: Evaluation - 2020년 3월 26일 3:40 오후
    [TOC] # Evaluation 이제 validation loss를 계산할 차례이다. 다음 사항을 고려하자. * `torch.no_grad(…
    A-1. Probability and Likelihood - 2020년 3월 20일 9:21 오전
    [TOC] 머신러닝을 공부하다보면 probability와 likelihood라는 말이 많이 나온다. 일상 언어에서는 비슷한 뜻을 지니지만 전문…
    a. Pytorch Example - 2020년 3월 19일 5:31 오전
    [TOC] # Model 지금까지 line을 fit하는 법에 대해 다루었다. 이제부터는 prediction에 관해 다루어 보자. PyTorch…
    a. Pytorch example - 2020년 3월 18일 5:37 오전
    [TOC] # Graident-Descent ## Impementing with Numpy ``` np.random.seed(42) a = n…
    3) Cost Function & Gradient Descent - 2020년 3월 17일 2:44 오전
    [TOC] Linear regression에서는 LSE criterion을 사용하였다. > Linear regression: $J(\theta…
    b. TensorFlow example - 2020년 3월 13일 4:48 오전
    [TOC] > 아래 예시는 Sung Kim님의 강의를 참고하였습니다 # Recap 우선, bias term을 없애고 hypothesis를 다음…
    2) Decision Boundary - 2020년 3월 12일 9:44 오전
    [TOC] Logistic regression의 hypothesis function은 다음과 같이 정의한다고 하였다. 이 때 우리는 featu…
    • 다음글 : 01. Introduction
    TOP

    이 페이지에 대한 피드백을 남겨주세요

    ※ 피드백은 저자에게 e-메일로 전달됩니다.