본문 바로가기

ML

(24)
[ML] 선형 회귀 아래 글은 '혼자 공부하는 머신러닝 + 딥러닝' 교재를 토대로 작성한 글입니다. hg-mldl/Ch03_2.ipynb at main · nayonsoso/hg-mldl (github.com) GitHub - nayonsoso/hg-mldl: 혼자 공부하는 머신러닝 + 딥러닝 혼자 공부하는 머신러닝 + 딥러닝. Contribute to nayonsoso/hg-mldl development by creating an account on GitHub. github.com
[ML] K-최근접 이웃 회귀 아래 글은 '혼자 공부하는 머신러닝 + 딥러닝' 교재를 토대로 작성한 글입니다. hg-mldl/Ch03_1.ipynb at main · nayonsoso/hg-mldl (github.com) GitHub - nayonsoso/hg-mldl: 혼자 공부하는 머신러닝 + 딥러닝 혼자 공부하는 머신러닝 + 딥러닝. Contribute to nayonsoso/hg-mldl development by creating an account on GitHub. github.com
[ML] 데이터 전처리 아래 글은 '혼자 공부하는 머신러닝 + 딥러닝' 교재를 토대로 작성한 글입니다. https://github.com/nayonsoso/hg-mldl/blob/main/Ch02_2.ipynb GitHub - nayonsoso/hg-mldl: 혼자 공부하는 머신러닝 + 딥러닝 혼자 공부하는 머신러닝 + 딥러닝. Contribute to nayonsoso/hg-mldl development by creating an account on GitHub. github.com
[ML] 훈련 세트와 테스트 세트 아래 글은 '혼자 공부하는 머신러닝 + 딥러닝' 교재를 토대로 작성한 글입니다. hg-mldl/Ch02_1.ipynb at main · nayonsoso/hg-mldl (github.com) GitHub - nayonsoso/hg-mldl: 혼자 공부하는 머신러닝 + 딥러닝 혼자 공부하는 머신러닝 + 딥러닝. Contribute to nayonsoso/hg-mldl development by creating an account on GitHub. github.com
[ML] K-최근접 이웃 알고리즘(KNN) 아래 글은 '혼자 공부하는 머신러닝 + 딥러닝' 교재를 토대로 작성한 글입니다. hg-mldl/Ch01.ipynb at main · nayonsoso/hg-mldl (github.com) GitHub - nayonsoso/hg-mldl: 혼자 공부하는 머신러닝 + 딥러닝 혼자 공부하는 머신러닝 + 딥러닝. Contribute to nayonsoso/hg-mldl development by creating an account on GitHub. github.com ▽ 참고 링크 머신러닝 - 6. K-최근접 이웃(KNN) (tistory.com) 머신러닝 프로그램 만들어 보기 - 생선 분류 문제 (tistory.com)
[ML] 딥러닝 1 - 11강 계산 그래프 Intro. 수치미분 vs 미분공식 + 연쇄법칙 역전파는 미분공식과 연쇄법칙을 이용하여 미분 계산을 간단히 한 방식이다. 후자의 경우가 더 계산이 간단하다는 것은 간단히 생각해봐도 알 수 있는 사실이다. 이전 글에서 비유한 것 처럼, 수치미분은 미분의 정의를 그대로 적용한 것이고 역전파가 '역'전파인 이유..? 🤔 by 교수님 피셜 이를 위해선 밖에 있는 함수 먼저 미분하고 이후에 안의 함수를 미분해야 하는데, ex. h(g(f(x))) → h'(g(f(x)))g'(f(x))f'(x) 이 방향이 역방향 같다고 생각되어 '역' 전파라 불리게 되었다. 역전파에서 연쇄법칙을 적용할 때, 흔히 '겉미분 후 속미분(합성함수 미분)'이라 불리는 공식을 적용해야 한다. 계산 그래프 역전파의 원리를 계산 그래프로 이해..
[ML] 딥러닝 1 - 10강 수치미분을 통한 학습 구현 ※ 본 글은 한경훈 교수님의 머신러닝 강의를 정리, 보충한 글입니다. ※ [딥러닝I] 10강. 수치미분을 통한 학습 구현 - YouTube 지금까지 배운 지식들을 동원해 MNIST 데이터 분류 모델을 학습시켜보자. 구현해야 하는 모델은 1. 2층 신경망이며, 각 층마다 뉴런의 개수는 784, 50, 10개이다. 2. 손실 함수는 교차 엔트로피이고 손실함수의 변수(편향와 가중치) 개수는 총 784 × 50 + 50 + 50 × 10 + 10 = 39,760 개다. 3. learning rate = 0.1 , 학습 회수 = 10,000로 설정한다. 4. 학습 회수만큼 반복하여 −𝑙⋅𝛻𝑓을 더하여 weight와 bias를 업데이트한다. MNIST 분류 모델 구현 # coding: utf-8 from commo..
[ML] 딥러닝 1 - 9강 경사하강법 ※ 본 글은 한경훈 교수님의 머신러닝 강의를 정리, 보충한 글입니다. ※ [딥러닝I] 9강. 경사하강법 - YouTube 지난 강의 복습 손실함수는 '예측값과 실제값의 차이를 수치화'하는 함수이다. 손실함수는 패널티로 작용되며, 손실함수가 작을수록 인공지능의 성능은 좋아진다. 따라서 모델이 학습을 하는 과정은 손실함수 값을 최소화하기 위한 과정이라고도 할 수 있다. 손실함수로는 평균 제곱오차 MSE 와 교차엔트로피가 있다. (이 책에서는 교차엔트로피만 사용함) 이런 손실함수도 결국에는 '함수' 이므로 당연히 변수를 갖는다. 그렇다면 이 손실'함수'의 변수는 무엇일까? 손실함수의 변수 가중치와 편향이 손실함수의 변수이고, 입력 데이터는 손실함수의 계수이다. cf. 함수에서 변수는 변할 수 있는 수이고, 계..