코딩한걸음
[프로그래머스] 다음 큰 숫자
Coding Test/Programers 2023. 7. 19. 08:52

https://school.programmers.co.kr/learn/courses/30/lessons/12911 프로그래머스 코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요. programmers.co.kr 문제 설명 자연수 n이 주어졌을 때, n의 다음 큰 숫자는 다음과 같이 정의 합니다. 조건 1. n의 다음 큰 숫자는 n보다 큰 자연수 입니다. 조건 2. n의 다음 큰 숫자와 n은 2진수로 변환했을 때 1의 갯수가 같습니다. 조건 3. n의 다음 큰 숫자는 조건 1, 2를 만족하는 수 중 가장 작은 수 입니다. 예를 들어서 78(1001110)의 다음 큰 숫자는 83(1010011)입니다. 자연..

[프로그래머스] 짝지어 제거하기
Coding Test/Programers 2023. 7. 19. 08:36

https://school.programmers.co.kr/learn/courses/30/lessons/12973 프로그래머스 코드 중심의 개발자 채용. 스택 기반의 포지션 매칭. 프로그래머스의 개발자 맞춤형 프로필을 등록하고, 나와 기술 궁합이 잘 맞는 기업들을 매칭 받으세요. programmers.co.kr 문제 설명 짝지어 제거하기는, 알파벳 소문자로 이루어진 문자열을 가지고 시작합니다. 먼저 문자열에서 같은 알파벳이 2개 붙어 있는 짝을 찾습니다. 그다음, 그 둘을 제거한 뒤, 앞뒤로 문자열을 이어 붙입니다. 이 과정을 반복해서 문자열을 모두 제거한다면 짝지어 제거하기가 종료됩니다. 문자열 S가 주어졌을 때, 짝지어 제거하기를 성공적으로 수행할 수 있는지 반환하는 함수를 완성해 주세요. 성공적으로..

23-05-17 TIL 일지 : 지도/비지도/강화학습, 선형회귀와 경사하강법
NBCamp/코딩 한걸음 2023. 5. 18. 08:52

Today I Learned 지도 / 비지도 / 강화 학습 https://raoneli-coding.tistory.com/117 [머신러닝] 지도 / 비지도 / 강화 학습 https://towardsdatascience.com/the-future-with-reinforcement-learning-877a17187d54 지도 학습 (Supervised learning) https://www.researchgate.net/figure/Supervised-learning-and-unsupervised-learning-Supervised-learning-uses-annotation_fig1_329533120 정 raoneli-coding.tistory.com 선형 회귀와 경사 하강법 https://raoneli..

[머신러닝] 선형 회귀와 경사 하강법
Python/머신러닝 2023. 5. 17. 12:04

선형 회귀 (Linear Regression) 가설 (Hypothesis), 손실 / 비용 함수 (Cost / Loss function) 단순 선형회귀(1차 함수)를 가정하고 생각해보면 가설을 다음과 같이 세울 수 있다H(x)=Wx+bH(x) = Wx + bH(x)=Wx+bW (Weight) 가중치 : 각 입력 특성에 대한 중요성을 결정b (bias) 편향 : 실제 값과 예측 값 사이의 잔차를 보정 이렇게 만든 가설이 정답에 최대한 가까워지도록 해야한다 이때 주로 사용하는 것이 평균 제곱 오차(Mean Squared Error, MSE), 손실 함수라 한다 MSE=1/N∗Σ(yi−y^i)2MSE = 1/N * Σ (y_i - ŷ_i)^2MSE=1/N∗Σ(yi​−y^​i​)2N은 데이터 포인트의 총 수y..

[머신러닝] 지도 / 비지도 / 강화 학습
Python/머신러닝 2023. 5. 17. 12:04

https://towardsdatascience.com/the-future-with-reinforcement-learning-877a17187d54 지도 학습 (Supervised learning) https://www.researchgate.net/figure/Supervised-learning-and-unsupervised-learning-Supervised-learning-uses-annotation_fig1_329533120 정답을 알려주면서 학습시키는 방법 입력값과 출력값이 필요하다. 입력값은 있지만 출력값이 없는 경우 많아 라벨링(Labeling, 레이블링), 어노테이션(Annotation) 작업을 해서 출력값을 하나하나 입력해준다. 비지도 학습 (Unsupervised learning) ht..

23-05-16 TIL 일지 : 회귀와 분류
NBCamp/코딩 한걸음 2023. 5. 17. 00:16

Today I Learned 머신러닝 / 딥러닝 주차에 들어갔는데 기본 개념 정리가 필요할거 같아서 강의 내용 외의 기본 개념들을 정리했다. 아마 당분간은 개념정리 위주의 포스팅이 될 듯 하다 https://raoneli-coding.tistory.com/115 [머신러닝] 회귀와 분류 회귀 (Regression) 여러 개의 독립변수와 한 개의 종속변수 간의 상관관계를 모델링 하는 기법 Y = W1 * X1 + W2 * X2 + W3 * X3 + … 이런 회귀식을 보면 Y는 종속변수, 즉 우리가 머신러닝을 통해 예측 할 가 raoneli-coding.tistory.com

article thumbnail
[머신러닝] 회귀와 분류
Python/머신러닝 2023. 5. 17. 00:10

회귀 (Regression) 여러 개의 독립변수와 한 개의 종속변수 간의 상관관계를 모델링 하는 기법 Y = W1 * X1 + W2 * X2 + W3 * X3 + … 이런 회귀식을 보면 Y는 종속변수, 즉 우리가 머신러닝을 통해 예측 할 가격이 되는 것이고, W1, W2, W3 은 독립 변수 값에 영향을 주는 회귀 계수(Regression coefficients) X1, X2, X3 은 독립변수가 된다. 머신러닝 회귀 예측은 주어진 피처(feature)와 결정 값 데이터 기반에서 학습을 통해 최적의 회귀 계수를 찾는 것이 목표 회귀는 회귀 계수의 선형/ 비선형 여부, 독립변수 개수, 종속 변수의 개수에 따라 여러가지 유형으로 나뉜다 독립변수 개수회귀 계수의 결합1개 : 단일 회귀선형여러 개 : 다중 회귀..

23-05-15 TIL 일지 : DRF Project S.A, KTP 회고록
NBCamp/코딩 한걸음 2023. 5. 16. 16:46

Today I Learned DRF Project S.A https://raoneli-coding.tistory.com/113 [내일배움캠프] DRF Project S.A Team - 가보장고 DRF Project : 마셔보장 MBTI블로그GitHubTMI요즘 듣는 노래 추천윤준열INTPhttps://raoneli-coding.tistory.com/https://github.com/raoneli1013신발 모으는 중King Gnu - BOY서지인ISTPhttps://never-stop.tistory.com/http raoneli-coding.tistory.com DRF Project KTP 회고록 https://raoneli-coding.tistory.com/108 [내일배움캠프] DRF Project ..