코딩한걸음
728x90
반응형

Today I Learned


지도 / 비지도 / 강화 학습

https://raoneli-coding.tistory.com/117

 

[머신러닝] 지도 / 비지도 / 강화 학습

https://towardsdatascience.com/the-future-with-reinforcement-learning-877a17187d54 지도 학습 (Supervised learning) https://www.researchgate.net/figure/Supervised-learning-and-unsupervised-learning-Supervised-learning-uses-annotation_fig1_329533120 정

raoneli-coding.tistory.com

 

 

 

선형 회귀와 경사 하강법

https://raoneli-coding.tistory.com/118

 

[머신러닝] 선형 회귀와 경사 하강법

선형 회귀 (Linear Regression) 가설 (Hypothesis), 손실 / 비용 함수 (Cost / Loss function) 단순 선형회귀(1차 함수)를 가정하고 생각해보면 가설을 다음과 같이 세울 수 있다H(x)=Wx+bH(x) = Wx + bH(x)=Wx+bW (Weight) 가

raoneli-coding.tistory.com

 

728x90
반응형
profile

코딩한걸음

@Joonyeol_Yoon

포스팅이 좋았다면 "좋아요❤️" 또는 "구독👍🏻" 해주세요!