Self-Obj85 [ML][Classification] 분류 성능 평가 방법(Accuracy, Precision, Recall, F1-score, ROC, AUC) Confusion matrix(오차 행렬)Classification 성능 측정을 위해 예측값과 실제값을 비교한 표 TP : 실제값이 Positive(1)이고 모델의 예측값도 Positive(1)FP : 실제값이 Positive(1)이고 모델의 예측값은 Negative(0)FN : 실제값이 Negative(0)이고 모델의 예측값은 Positive(1)TN : 실제값이 Negative(0)이고 모델의 예측값도 Negative(0) Accuracy(정확도)데이터 샘플 중 예측에 성공한 샘플의 비율($\frac{TP + TN}{TP+FN+FP+TN}$)Precision(정밀도)모델이 Positive로 예측한 것 중 실제값 도한 Positive인 비율($\frac{TP}{TP+FP}$)Recall(재현율) 실제.. 2024. 6. 5. [ML]OverFitting 해결방법(Validation, Regularization) 일반적으로 모델 복잡도를 증가시키면 Bias가 줄어든다.하지만 Bias and Variance Trade-Off로 인해 Variance가 증가하고 결론적으로 전체 Error는 증가한다.또한 모델 복잡도를 증가시키면 Over fitting 이슈가 발생할 수 있다. Bias and Variance Trade-Off(분산 편향 트레이드 오프)※ Notation$f(x)$ : Input x에 대한 실제 정답, 하나 존재$\hat{f(x)}$ : Input x에 대한 Model의 예측값, 다양한 값 존재$E[\hat{f(x)}]$ : $ \hat{f}(x) $에 대한 기댓값 모델 복잡도(Model Complexity)모델의 파라미터 수self-objectification.tistory.com 일반적으로 모델의 복.. 2024. 6. 4. [ML]Bias and Variance Trade-Off(분산 편향 트레이드 오프) ※ Notation$f(x)$ : Input x에 대한 실제 정답, 하나 존재$\hat{f(x)}$ : Input x에 대한 Model의 예측값, 다양한 값 존재$E[\hat{f(x)}]$ : $ \hat{f}(x) $에 대한 기댓값 모델 복잡도(Model Complexity)모델의 파라미터 수가 많아질수록(선형 모델 -> 비선형 모델), 모델 복잡도가 증가모델이 복잡해질수록 학습 데이터를 더욱 완벽하게 학습학습 데이터가 많은 경우 : Under-fitting학습 데이터가 적은 경우 : Over-fittingBias vs Variance편향과 분산은 알고리즘이 가지고 있는 에러의 종류이다.Bias(편향)Model을 통해 얻은 예측값과 실제 정답과의 차이즉, 예측값이 실제 정답과 얼마만큼 떨어져있는지를 나.. 2024. 5. 29. 안녕하세요 어쩌다보니 블로그를 쓰게 됐네요.이게 첫 글인데 앞으로 공부한 거 정리나 아무 얘기나 할 건데 관심 있으면 봐주세요~(저도 이곳 저곳에서 보면서 공부한 거 쓰는거라 혹시나 문제가 있다면 말씀부탁드립니다..!)시작 ! 2024. 5. 29. 이전 1 ··· 7 8 9 10 다음