목록XGBoost (2)
꿈 많은 사람의 이야기
머신러닝에서는 앙상블(ensemble) 모델을 빼놓을 수가 없습니다. 이 앙상블에는 배깅(bagging)과 부스팅(boosting) 그리고 보팅(voting) 방법이 있습니다. 크게 보면 말이죠 이 중 ensemble bagging에 대해서는 지난 포스팅에서 random forest(랜덤 포레스트)로 설명을 했습니다. 그리고 ensemble boosting 또한 지난 포스팅에서 Gradient Boosting Machine와 Adaboost를 예시로 들면서 포스팅을 올렸습니다. 하지만 이런 GBM에는 문제점이 있습니다. Gradient Boosting의 문제점 머신러닝에서 앙상블 모델 중 부스팅(boosting)은 정말 강력합니다. 하지만 단점이 없는 것은 아닙니다. 특히 gradient boosting..
xgboost는 앙상블(ensemble) 부스팅(boosting)에서 많이 사용하는 알고리즘 중 하나입니다. 이 xgboost는 파이썬 사이킷런(python scikit learn)에서 그냥 제공되지는 않는데요. 즉, 따로 설치를 해주어야 합니다. 사이킷런을 설치했다고해서 xgboost가 install되어 있지 않습니다. 그래서 xgboost를 따로 설치해주어야 합니다. 이번 포스팅은 윈도우 10 환경에서 앙상블 xgboost(ensemble xgboost)를 설치해보는 포스팅입니다. 1. 파이썬 아나콘다를 이용한 xgboost 설치 (python anaconda3 xgboost install) 이 방법은 굉장히 간단합니다. anaconda3가 제공해주는 강력한 패키징 기능으로 xgboost를 간단하게 ..