728x90
반응형
Today I Learned
지도 / 비지도 / 강화 학습
https://raoneli-coding.tistory.com/117
[머신러닝] 지도 / 비지도 / 강화 학습
https://towardsdatascience.com/the-future-with-reinforcement-learning-877a17187d54 지도 학습 (Supervised learning) https://www.researchgate.net/figure/Supervised-learning-and-unsupervised-learning-Supervised-learning-uses-annotation_fig1_329533120 정
raoneli-coding.tistory.com
선형 회귀와 경사 하강법
https://raoneli-coding.tistory.com/118
[머신러닝] 선형 회귀와 경사 하강법
선형 회귀 (Linear Regression) 가설 (Hypothesis), 손실 / 비용 함수 (Cost / Loss function) 단순 선형회귀(1차 함수)를 가정하고 생각해보면 가설을 다음과 같이 세울 수 있다H(x)=Wx+bH(x) = Wx + bH(x)=Wx+bW (Weight) 가
raoneli-coding.tistory.com
728x90
반응형