본문 바로가기

분류 전체보기154

[머신러닝] SVM SVM의 정의 SVM은 신경망보다 사용이 간결하여 분류나 회귀 분석에서 사용이 가능하지만, 분류에서 주로 사용하고 있는 기법입니다. SVM은 초평면을 이용해서 분류를 수행하게 되는 알고리즘입니다. 어느 한쪽에 치우치지 않게 분류하며, 양쪽 데이터와 균등한 위치에 분류 기준을 세워줘야 합니다. (그런게해야 새로운 데이터가 들어오더라도 오류가 적습니다.) 그렇 어떻게 할까요? SVM 분류 방법 SVM은 결정 경계를 정의하는 모델입니다. 최적의 모델은 Margin을 최대화하는 결정 경계를 찾는 것입니다. SVM 분류 종류 Hard Margin 어떠한 오분류도 허용하지 않습니다. 위의 데이터를 영역을 정확히 나누려면 2차 곡선 위로 올립니다. Soft Margin 어느 정도의 오분류는 허용합니다. 그에 따른 P.. 2022. 5. 6.
[머신러닝] K-Nearest Neighbors 모델 학습 방법 1. 모델 기반 학습(Model-Based Learning) 데이터로부터 모델을 생성하여 분류/예측 진행 ex) Linear Regression, Logistic Regression 2. 사례 기반 학습(Instance-Based Learning) 별도의 모델 생성 없이 인접 데이터를 분류/예측에 사용 Lazy Learning 모델을 미리 만들지 않고, 새로운 데이터가 들어오면 계산을 시작 KNN, Naive Bayes KNN K 개의 가까운 이웃을 찾는다. 학습 데이터 중 K개의 가장 가까운 사례를 사용하여 분류 및 수치 예측 새로운 데이터를 입력 받음 모든 데이터들과의 거리를 계산 가장 가까운 K개의 데이터를 선택 K개 데이터의 클래스를 확인 다수의 클래스를 새로운 데이터의 클래스로 .. 2022. 5. 6.
[머신러닝] Naive Bayes 확률의 개념 특정한 사건이 일어날 가능성을 이야기합니다. 조건부 확률 어떤 사건 A가 일어났을 때, 다른 사건 B가 발생할 확률 ex) 어제 비가 왔는데, 오늘 비가 올 확률 독립 조건부 독립 사건 C가 일어났을 때 서로 다른 사건 A, B가 독립일 때 베이즈 정리 위의 데이터가 있다고 가정해봅시다. 여기서 이 길 확률과 질 확률 각각 구하면 여기서 fast와 slow의 확률을 또 구하면 이제 조건부 확률로 Y가 win일 때 X가 fast일확률과, Y가 win일때 X가 slow일 확률 각각 구하면 조건부 확률로 Y가 lose일 때 X가 fast일확률과, Y가 lose일때 X가 slow일 확률 각각 구하면 이제 모든 조건부 확률을 구했으니 베이즈 정리를 이용하여 Fast의 결과를 예측해봅시다. X가 Fas.. 2022. 5. 6.
[머신러닝] 앙상블(Ensemble) 앙상블의 정의 앙상블이란 여러 약한 분류기들을 결합하여 강 분류기로 만드는 것입니다. 여러 개의 분류기(Classifier)를 생성하고 그 예측을 결합함으로써 보다 정확한 최종 예측을 도출하는 기법입니다. 앙상블 학습의 유형은 전통적으로 보팅(Voting), 배깅(Bagging), 부스팅(Boosting)의 세가지로 나눌 수 있으며, 이외에도 스태킹을 포함한 다양한 앙상블 기법이 있습니다. 보팅(Voting) 보팅이란 서로 다른 알고리즘을 가진 분류기를 결합하는 것입니다. 보팅 방법에는 두 가지가 있습니다. 하드 보팅과 소프트 보팅입니다. 하드 보팅을 이용한 분류는 다수결 원칙과 비슷합니다. 다수의 분류기가 결정한 예측값을 최종 보팅 결괏값으로 선정하는 것입니다. 소프트 보팅은 분류기들의 레이블 값 결정.. 2022. 5. 6.