Skip to content
forked from guojiasheng/gbdt

gdbt implement by scikit-learn

Notifications You must be signed in to change notification settings

Stephendzh/gbdt

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

5 Commits
 
 
 
 
 
 
 
 
 
 

Repository files navigation

gbdt

gdbt implement by scikit-learn

参数说明: ls: loss默认是deviance,包括(deviance、exponential),deviance 其实就是logistic regression,exponential 指数损失函数,其实这时候就编程adaboost了 lr: learning_rate,代表每个tree的学习速率,默认是0.1,具体可以自己试验看效果 ns: n_estimators,代表 boosting的次数,默认是100,次数越多效果肯定越好,而且也不用担心over-fitting的问题 md: max_depth, 代表每一棵树的深度, 默认是3. sub: subsample,每次随机选取训练数据集的比率,默认是1.就是全部用来训练。如果sub小于1的话,就变成stochastic gradient boosting. cv: cross Validation,交叉验证的大小,这个k-fold要设置. dataset: 训练数据集,注意这边目前只输入libsvm格式的数据

 只要dataset放最后面,其他参数顺序无所谓!效果不好,就ns设高点~
            
 command:
       (1)  python gbdt.py -cv 10 heart_scale
       (2)  python gbdt.py -ns 100 -md 5  -cv 10 heart_scale
output:
       (1)会输出交叉验证的Acc
       (2)为了应对不平衡数据,还输出了Auc。
	   (3)输出混淆矩阵,虽然样式没那么好看,但是还是能ok的。
       (4)输出feature的重要性打分,这个还是挺有用的,分值越高表示这个feature的在这个过程起到的


2.对文件进行predict
    当我们有测试文件 test 和 训练文化train的时候,我们用train训练model,用这个model来预测test的文件,输出文件为当前目录下的predict文件。
    python gbdt.py -p testFile trainFile

gbdt+Logistic 模型

implement by scikit-learn 说明:利用GBDT模型构造新特征,比如使用N个树,n_estimators=n,对于一个输入样本点x,如果它在第一棵树最后落在其中的第二个叶子结点,而在第二棵树里最后落在其中的第一个叶子结点。那么通过GBDT获得的新特征向量为[0, 1, 0, 1, 0],其中向量中的前三位对应第一棵树的3个叶子结点,后两位对应第二棵树的2个叶子结点。然后把这些构造的新特征做完LR的输入特征 python gbdt_lr.py

About

gdbt implement by scikit-learn

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Python 100.0%