ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • Gradient boosting machine
    카테고리 없음 2022. 2. 16. 09:04

    Emsemble 기법들

    앙상블 방법 중 부스팅에 속하는 알고리즘

     

    Ada Boosting

    1. 첫 train set의 일부를 가지고 model 1을 학습을 하고, 학습된 모델을 train set 전체로 test한다.

    2. 다시 train set 일부를 가지고 다른 model 2 학습을 하되, 여기에 test 해서 틀린 데이터들이 더 잘 포함되도록 가중치를 크게 준다.

    3.  model 1과 2를 앙상블 하여 train set 전체에 대해 예측. 이때 틀린 데이터들이 다음에 train에 포함될 확률 (가중치)를 높여줌

     

    1-3 과정을 반복 

     

    weak classifiers

    tree1에서 GT와의 error, tree2에서 tree1의 error, tree 3에서 tree 2의 error 

    각각을 줄이는 classifier를 weak classifier라 하고

    wc들을 결합한 것이 strong classifier 

     

    GBM pseudo code

    줄여야 할 loss func L을 최소화 하는 파라미터 gamma를 찾아야 함

     

    실제 residual (error)을 편미분 한 pseudo-residual에

    learning rate (h(x)) 만큼 곱해서 더해가며

    gradient descent 시행 

Designed by Tistory.