[데이터사이언스] 나이브베이즈, 의사결정나무, 비계층적 군집분석
나이브베이즈 Bayes 법칙에 기반한 분류 기법 Feature들이 확률적으로 독립이라는 가정 확률 기반, 완전히 확률은 아니다 -> 그래서 나이브 베이즈 정리: 사후 확률, 이벤트가 다 끝나고 거꾸로 물어봄, P(A|C)=P(C|A)P(A)/P(C) 머신러닝에서는 Conditional(조건부)을 안쓰고 likelihood(우도)를 쓴다 P(A|C)와 P(B|C)는 분모는 똑같음, 때문에 분모는 계산하지 말자 -> 확률은 아니지만 비슷 그래서 naive Laplace Smoothing: 샘플의 갯수가 작을때 확률을 구하고 싶으면, 분모에 2를 더하고, 분자에 1을 더한다 Underflow: 확률의 값이 너무 작으면 컴퓨터가 다룰수 있는 범위를 넘어섬 -> exp, log 활용 나이브베이즈 장점: 단순, 비..
2023. 4. 3.