반응형 머신러닝18 [ML]라그랑주 승수법(Lagrange Multiplier Method) 라그랑주 승수법(Lagrange Multiplier Method)라그랑즈 승수법이란 제약식(Constraint)이 있는 Optimization 문제를 라그랑주 승수 항을 추가해, 제약이 없는 문제로 바꾸는 방법입니다제약식, 라그랑주 승수에 대해서 생소하실텐데, 수식을 통해 라그랑주 승수법에 대한 설명을 시작하도록 하겠습니다Primal Problem(원초문제)우리가 해결해야할 문제입니다\begin{aligned} &\underset{x}{\min} \, c^T x\\ &subject\;to\; Ax = b\; , Gx \le h \end{aligned}원초 문제 $f = c^T x$를 최소화하는 과정에서 $Ax = b$, $Gx \le h$라는 제약식(Constraint)을 가지는 상황입니다.라그랑주 승수.. 2024. 6. 17. [Optimization]Adagrad(Adaptive Gradient), RMSProp(Root Mean Squared Propagation), Adadelta(Adaptive delta) 앞선 글에서는 Gradient Descent의 운동량(Momentum)을 조정하여 수렴속도를 빠르게 하는 방법인 Momentum, Nesterov Accelerated Gradient(NAG) Optimizer를 살펴보았습니다 [Optimization]Momentum, Nesterov Accelerated Gradient(NAG)앞서 Gradient Descent 에서 Mini - Batch GD, SGD를 공부해보았습니다 [Optimization][Gradient Descent] Batch와 Gradient Descent(Full batch, Mini-batch, SGD)[Optimization] Gradient Descent(경사하강법)! Optimization에 대해서 이제 처self-object.. 2024. 6. 12. [Optimization]Momentum, Nesterov Accelerated Gradient(NAG) 앞서 Gradient Descent 에서 Mini - Batch GD, SGD를 공부해보았습니다 [Optimization][Gradient Descent] Batch와 Gradient Descent(Full batch, Mini-batch, SGD)[Optimization] Gradient Descent(경사하강법)! Optimization에 대해서 이제 처음 접해보시는 분은 Optimization 정의 먼저 보고 오시면 좋습니다 ! [Optimization] Optimization 정의Optimization(최적화) 란?Optimization이란self-objectification.tistory.com 언급한 바와 같이 SGD의 단점(Parameter 변경폭이 불안정)을 개선하기 위해 Velocity.. 2024. 6. 10. [ML] 이동평균(Moving Average, SMA, CMA, WMA, EMA) Moving Average(이동평균)이란?전체 데이터 셋의 여러 하위 집합에 대한 일련의 평균을 만드는 것을 의미한다 보통 시계열 데이터에서 일정 기간동안 평균값을 계산하여 데이터의 추세를 분석하는데 사용된다(데이터의 변동성을 줄이고 장기적인 추세를 파악하기 위해서) Moving Average에는 여러 종류가 있는데 이를 살펴보겠습니다 Simple Moving Average(단순 이동 평균, SMA)정해진 폭(기간, Window)의 데이터들의 평균을 계산 $$SMA = \frac{x_M + x_{M-1} \, +\cdots \, + x_{M-(n-1)}}{n} =\frac{1}{n} \sum \limits_{i=1}^{n-1} x_{M-i}$$Cumulative Moving Average(누적 이동 평균.. 2024. 6. 10. [Optimization][Gradient Descent] Batch와 Gradient Descent(Full batch, Mini-batch, SGD) [Optimization] Gradient Descent(경사하강법)! Optimization에 대해서 이제 처음 접해보시는 분은 Optimization 정의 먼저 보고 오시면 좋습니다 ! [Optimization] Optimization 정의Optimization(최적화) 란?Optimization이란 최소한의 Cost로 최적의 답을 찾는 과self-objectification.tistory.com앞선 글에서 간략하게 Gradient Descent 기본 개념에 대해 보았습니다 그럼 이번 글에서는 여러 Gradient Descent 대해서 보도록 하겠습니다 ! ※ NotationEpoch인공신경망에서 전체 데이터 셋에 대해 Forward, Backward 과정을 한번 거친 것즉, 전체 데이터 셋에 대.. 2024. 6. 10. [Optimization] Gradient Descent(경사하강법) ! Optimization에 대해서 이제 처음 접해보시는 분은 Optimization 정의 먼저 보고 오시면 좋습니다 ! [Optimization] Optimization 정의Optimization(최적화) 란?Optimization이란 최소한의 Cost로 최적의 답을 찾는 과정을 의미합니다 ML/DL 에서는 Loss Function을 정의하고 Gradicent Descent, Stochastic Gradient Descent, Mometum, RMSProp, Adam 등 많은 Optimizatself-objectification.tistory.comGradient Descent에 대해 적기 전에 간단하게 Gradient에 대해 정의하고 시작하겠습니다 ! ※ Gradient 깊게 들어가면 벡터 미적분학.. 2024. 6. 8. [ML] 최대 우도 추정법(Maximum Likelihood Estimation, MLE) 최대 우도 추정법(Maximum Likelihood Estimation, MLE)최대 우도 추정법(Maximum Likelihood Estimation, MLE)는 확률변수에서 추출한 표본 값(관측 데이터)들을 토대로 우도(Likelihood)를 최대화하는 방향으로 확률변수의 모수(파라미터)를 추정한다이 때 Likelihood를 최대화하는 parameter는 얻은 샘플로부터 모집단의 분포를 추정하였을 때 가장 적합한 parameter이다 그럼 여기서 우도(Likelihood)란 무엇인가? 우도 확률(Likelihood Probability, $P(X | w)$)모델 파라미터(모수) 값을 잘 모르지만 안다고 가정했을 때, 주어진 데이터의 분포따라서, 모델 파라미터(w)에 대한 함수로 데이터의 분포를 표현.. 2024. 6. 7. [ML][Classification]Logistic Regression(로지스틱 회귀) ※ Remind회귀(Regression)Input : 연속형(실수값), 이산형(범주형) 모두 가능Output : 연속형(실수형)분류(Classification)Input : 연속형(실수값), 이산형(범주형) 모두 가능Output : 이산값(범주형)Binary Classification이라면 시그모이드 함수, Multiclass Classification이라면 소프트맥수 함수 사용※ Notation시그모이드(Sigmoid) 함수S자형 곡선 또는 시그모이드 곡선을 갖는 함수Binary Classification, Deep Learning에서 Activation Function으로 사용$$y = \frac{1}{1 + e^{-x}} = \frac{e^x}{1 + e^x }$$ 소프트맥스(Softmax) 함수.. 2024. 6. 7. [ML][Classification] 분류 성능 평가 방법(Accuracy, Precision, Recall, F1-score, ROC, AUC) Confusion matrix(오차 행렬)Classification 성능 측정을 위해 예측값과 실제값을 비교한 표 TP : 실제값이 Positive(1)이고 모델의 예측값도 Positive(1)FP : 실제값이 Positive(1)이고 모델의 예측값은 Negative(0)FN : 실제값이 Negative(0)이고 모델의 예측값은 Positive(1)TN : 실제값이 Negative(0)이고 모델의 예측값도 Negative(0) Accuracy(정확도)데이터 샘플 중 예측에 성공한 샘플의 비율($\frac{TP + TN}{TP+FN+FP+TN}$)Precision(정밀도)모델이 Positive로 예측한 것 중 실제값 도한 Positive인 비율($\frac{TP}{TP+FP}$)Recall(재현율) 실제.. 2024. 6. 5. 이전 1 2 다음 반응형