建模

阅读(2833) 标签: 建模,

本章节主要介绍建模前模型选项的配置,执行建模操作,以及建模后模型文件信息。

模型选项

模型选项模块是对当前模型进行设置,模型参数的配置会影响模型质量。模型选项中包含对【常规】、【二分类模型】、【回归模型】、【多分类模型】的设置。

常规

【数据预处理】:决定建模前是否对数据进行预处理。

数值目标变量参与预处理】:决定预建模前是否对数值目标变量进行预处理。

【智能填补】:采用智能补缺算法对缺失值进行补充。

【智能填补失败后进行普通填补】:智能填补失败后,使用普通填补的方式重新建模。

【模型组合策略】:分为两种,最优模型策略、简单模型组合。最优模型策略表示选出最佳的前几个模型进行组合,计算量较多。简单模型组合表示不进行筛选,而是将所有定义出的模型组合到一起,计算量较少。

【模型组合最优数】:控制如何选择最优模型组合。0表示选择组合后效果最好的模型;大于0表示选择固定的前n个最好模型;小于0表示在最好的前n个模型中,选择使组合效果最好的模型。默认是0

【模型组合函数】:定义多个模型通过什么方法组合到一起,可选numpy中的任一基本函数。默认函数是np.mean

【模型评价准则】:二分类模型可选auccross_entropyksaprecallliftf1_score,默认为auc;回归模型可选 msemaemaper2,默认为mse;多分类模型可选cross_entropy

【测试数据百分比】:设定用于测试打分的数据百分比。

【分批导入测试数据】:设定分批导入测试数据的条数。

【模型预测结果执行矫正】:默认会执行校正。执行校正时,模型打分会按照原始数据的平均值进行校正;不执行校正时,模型打分会保持抽样配平后的平均值不变。

【设置随机种子】:控制建模随机性。默认是0

当设为空值时,两次运行会得到随机的结果。

当设为整数n时,两次运行n值相同,会得到相同的结果;n值不同,会得到不同的结果。

:当值为n时,会强制所有模型的random_state参数都被设置为该值,无法自定义。

 

二分类模型

【二分类模型】主要用来配置建模时用到的二分类模型,选出的模型将会参与建模流程。

二分类模型包含9种模型:TreeClassificatioGBDTClassificationRFClassificationLogicClassificationRidgeClassificationFNNClassificationXGBClassificationCNNClassificationPCAClassification

抽样次数是指某个模型在建模时使用几份样本。

关于二分类模型的一些参数配置说明,请参考附录1

附录1:二分类模型参数

类型与范围的说明:每种类型后面以区间形式标识取值范围,中括号为闭区间,小括号为开区间。部分intfloat有大括号,表示参考的下拉框取值,格式为{起始值, 结束值, 间隔},如{1, 5, 1}=[1,2,3,4,5]{1, 6, 2}=[1,3,5]string类型的全部可能取值列入下拉框,不可键入;null列入下拉框,不可键入;bool类型只有truefalse,全部列入下拉框,不可键入;intfloat可以键入,若有参考值则将参考值列入下拉框。

部分float型,若正好为整数,需要加.0才可以,例如0.0, 1.0

 

TreeClassification

参数

类型与范围

说明

criterion

string: ["gini", "entropy"]

评估分裂节点的指标

splitter

string: ["best", "random"]

在每个节点选择分裂的策略

max_depth

int: [1, +∞), {1, 100, 1}

null

树最大深度

min_samples_split

int: [1, +∞), {10, 1000, 10}

float: (0, 1)

节点分裂所需的最小样本数。int表示最小样本数,float表示最小样本占总体比例

min_samples_leaf

int: [1, +∞), {10, 1000, 10}

float: (0, 1)

叶子节点的最小样本数。int表示最小样本数,float表示最小样本占总体比例

min_weight_fraction_leaf

float: [0, 1), {0, 0.1, 0.01}

叶节点上(所有输入样本的)权值之和的最小权重

max_features

int: [1, +∞), {10, 1000, 10}

float: (0, 1]

string: ["auto", "sqrt", "log2"]

null

搜索最佳分裂时所用的最大变量个数。

If int, 最大变量个数

If float, 最大变量比例

If "auto", then max_features=sqrt(n_features).

If "sqrt", then max_features=sqrt(n_features).

If "log2", then max_features=log2(n_features).

If null, then max_features=n_features.

max_leaf_nodes

int: [1, +∞), {10, 1000, 10}

null

使用best-first fashion生成剪枝树的最大叶子节点数。null表示不限制最大叶子节点数。

min_impurity_decrease

float: [0, 1)

分裂节点时所需的最低impurity decrease

class_weight

string: [“balanced”]

null

Weights associated with classes in the form {class_label: weight}.

 

GBDTClassification

参数

类型

说明

loss

string: ["deviance", "exponential"]

损失函数

learning_rate

float: (0, 1), {0.1, 0.9, 0.1}

学习率,越大速度越快,但可能找不到最优解

n_estimators

int: [1, +∞), {10, 500, 10}

boosting stages数量

subsample

float: (0, 1], {0.1, 1, 0.1}

每一个基本学习机使用的样本比例

criterion

string: ["mse", "friedman_mse", "mae"]

评估分裂节点的指标

min_samples_split

int: [1, +∞), {10, 1000, 10}

float: (0, 1)

节点分裂所需的最小样本数。int表示最小样本数,float表示最小样本占总体比例

min_samples_leaf

int: [1, +∞), {10, 1000, 10}

float: (0, 1)

叶子节点的最小样本数。int表示最小样本数,float表示最小样本占总体比例

min_weight_fraction_leaf

float: [0, 1), {0, 0.1, 0.01}

叶节点上(所有输入样本的)权值之和的最小权重

max_depth

int: [1, +∞), {1, 100, 1}

null

树最大深度

min_impurity_decrease

float: [0, 1)

分裂节点时所需的最低impurity decrease

max_features

int: [1, +∞), {10, 1000, 10}

float: (0, 1]

string: ["auto", "sqrt", "log2"]

null

搜索最佳分裂时所用的最大变量个数。

If int, 最大变量个数

If float, 最大变量比例

If "auto", then max_features=sqrt(n_features).

If "sqrt", then max_features=sqrt(n_features).

If "log2", then max_features=log2(n_features).

If null, then max_features=n_features.

max_leaf_nodes

int: [1, +∞), {10, 1000, 10}

null

使用best-first fashion生成剪枝树的最大叶子节点数。null表示不限制最大叶子节点数。

warm_start

bool

true使用前一次迭代的结果,false不使用前一次结果

 

RFClassification

参数

类型

说明

n_estimators

int: [1, +∞), {10, 500, 10}

树的数量

criterion

string: ["gini", "entropy"]

评估分裂节点的指标

max_depth

int: [1, +∞), {1, 100, 1}

null

树最大深度

min_samples_split

int: [1, +∞), {10, 1000, 10}

float: (0, 1)

节点分裂所需的最小样本数。int表示最小样本数,float表示最小样本占总体比例

min_samples_leaf

int: [1, +∞), {10, 1000, 10}

float: (0, 1)

叶子节点的最小样本数。int表示最小样本数,float表示最小样本占总体比例

min_weight_fraction_leaf

float: [0, 1), {0, 0.1, 0.01}

叶节点上(所有输入样本的)权值之和的最小权重

max_features

int: [1, +∞), {10, 1000, 10}

float: (0, 1]

string: ["auto", "sqrt", "log2"]

null

搜索最佳分裂时所用的最大变量个数。

If int, 最大变量个数

If float, 最大变量比例

If "auto", then max_features=sqrt(n_features).

If "sqrt", then max_features=sqrt(n_features).

If "log2", then max_features=log2(n_features).

If null, then max_features=n_features.

max_leaf_nodes

int: [1, +∞), {10, 1000, 10}

null

使用best-first fashion生成剪枝树的最大叶子节点数。null表示不限制最大叶子节点数。

min_impurity_decrease

float: [0, 1)

分裂节点时所需的最低impurity decrease

bootstrap

bool

生成树时是否使用bootstrap

oob_score

bool

是否使用out-of-bag samples估计准确率

warm_start

bool

true使用前一次迭代的结果,false不使用前一次结果

class_weight

string: [“balanced”]

null

Weights associated with classes in the form {class_label: weight}.

 

LogicClassification

参数

类型

说明

penalty

string: ["l1", "l2", "elasticnet", "none"]

正则化惩罚项。"newton-cg", "sag" and "lbfgs" solvers仅支持"l2"; "elasticnet" 仅支持‘saga’ solver"none"表示不做正则化,不支持liblinear solver

dual

bool

Dual or primal formulation. Dual formulation is only implemented for l2 penalty with liblinear solver. Prefer dual=False when n_samples > n_features.

tol

float: (0, 1)

停止迭代的容忍值

C

float: (0, 1]

Inverse of regularization strength; 必须是正数.

fit_intercept

bool

是否包含截距项

intercept_scaling

float: (0, 1]

仅在solver="liblinear"时有效,

class_weight

string: [“balanced”]

null

Weights associated with classes in the form {class_label: weight}.

solver

string: ["newton-cg", "lbfgs", "liblinear", "sag", "saga"]

最优化算法

max_iter

int: [1, +∞), {10, 500, 10}

最大迭代次数,仅在solver=["newton-cg", "lbfgs", "sag"]时有效

multi_class

string: ["ovr", "multinomial", "auto"]

处理多分类时的算法。"ovr"对每个分类单独建模,"multinomial"不能用于solver="liblinear"

warm_start

bool

true使用前一次迭代的结果,false不使用前一次结果

 

RidgeClassification

参数

类型

说明

alpha

float: [0, +], {0.0, 10.0, 0.1}

正则化强度,必须为正数

fit_intercept

bool

是否包含截距项

normalize

bool

是否将数据标准化

max_iter

int: [1, +∞), {10, 500, 10}

null

最大迭代次数

tol

float: (0, 1)

最终解的精度

class_weight

string: [“balanced”]

null

Weights associated with classes in the form {class_label: weight}. If not given, all classes are supposed to have weight one. "balanced"自动调整。

solver

string: ["auto", "svd", "cholesky", "lsqr", "sparse_cg", "sag", "saga"]

最优化算法

 

FNNClassificationCNNClassification

由于神经网络的特殊性,此模型参数暂时无法开放。

 

XGBClassification

参数

类型

说明

max_depth

int: [1, +∞), {1, 100, 1}

树最大深度

learning_rate

float: (0, 1), {0.1, 0.9, 0.1}

学习率,越大速度越快,但可能找不到最优解

n_estimators

int: [1, +∞), {10, 500, 10}

booster trees数量

objective

string: ["binary:logistic", "binary:logitraw", "binary:hinge"]

学习目标

binary:logistic: 二分类logistic回归, 输出概率;

binary:logitraw: 二分类logistic回归, 输出logistic变换前的打分;

binary:hinge: 二分类hinge loss,直接输出01分类,而非概率。

booster

string: ["gbtree", "gblinear", "dart"]

使用booster种类

gamma

float: [0, +∞)

分裂节点时所需的最小损失降低值。

min_child_weight

int: [1, +∞), {10, 1000, 10}

子节点最小样本权重和

max_delta_step

int: [0, +∞), {0, 10, 1}

在每棵树的权重估计中,允许的最大delta步长。

subsample

float: (0, 1], {0.1, 1.0, 0.1}

用于训练模型的子样本占整个样本集合的比例。

colsample_bytree

float: (0, 1], {0.1, 1.0, 0.1}

在建立树时对特征采样的比例。

colsample_bylevel

float: (0, 1], {0.1, 1.0, 0.1}

分裂时,在每个水平层次上,对列的采样比例。

reg_alpha

float: [0, +], {0.0, 10.0, 0.1}

L1正则项

reg_lambda

float: [0, +], {0.0, 10.0, 0.1}

L2正则项

scale_pos_weight

float: (0, +∞)

调节正负样本平衡,负样本/正样本

base_score

float: (0, 1), {0.1, 0.9, 0.1}

预测值的初始值

 

PCAClassification

参数

类型

说明

n_components

int or null: [1, min(行数, 列数)]

保留主成分个数,null表示自动设置,默认为null

whiten

bool

是否进行单位根变换

svd_solver

string: ["auto", "full", "arpack", "randomized"]

主成分求解方法,默认为full

tol

float: (0, 1)

求解精度,默认0.0001

fit_intercept

bool

是否包含截距项

max_iter

int: [1, +∞), {100, 1000, 100}

最大迭代次数

reg_solver

string: ["newton-cg", "lbfgs", "sag", "saga"]

回归求解方法,默认"lbfgs"

warm_start

bool

true使用前一次迭代的结果,false不使用前一次结果

 

回归模型

【回归模型】主要用来配置建模时用到的回归模型,选出的模型将会参与建模流程。

回归模型包含11种模型:TreeRegressionGBDTRegressionRFRegressionLRegressionLassoRegressionENRegressionRidgeRegressionFNNRegressionXGBRegressionCNNRegressionPCARegression

抽样次数是指某个模型在建模时使用几份样本。

关于回归模型的一些参数配置说明,请参考附录2

附录2:回归模型参数

类型与范围的说明:每种类型后面以区间形式标识取值范围,中括号为闭区间,小括号为开区间。部分intfloat有大括号,表示参考的下拉框取值,格式为{起始值, 结束值, 间隔},如{1, 5, 1}=[1,2,3,4,5]{1, 6, 2}=[1,3,5]string类型的全部可能取值列入下拉框,不可键入;null列入下拉框,不可键入;bool类型只有truefalse,全部列入下拉框,不可键入;intfloat可以键入,若有参考值则将参考值列入下拉框。

部分float型,若正好为整数,需要加.0才可以,例如0.0, 1.0

 

TreeRegression

参数

类型

说明

criterion

string: ["mse", "friedman_mse", "mae"]

评估分裂节点的指标

splitter

string: ["best", "random"]

在每个节点选择分裂的策略

max_depth

int: [1, +∞), {1, 100, 1}

null

树最大深度

min_samples_split

int: [1, +∞), {10, 1000, 10}

float: (0, 1)

节点分裂所需的最小样本数。int表示最小样本数,float表示最小样本占总体比例

min_samples_leaf

int: [1, +∞), {10, 1000, 10}

float: (0, 1)

叶子节点的最小样本数。int表示最小样本数,float表示最小样本占总体比例

min_weight_fraction_leaf

float: [0, 1), {0, 0.1, 0.01}

叶节点上(所有输入样本的)权值之和的最小权重

max_features

int: [1, +∞), {10, 1000, 10}

float: (0, 1]

string: ["auto", "sqrt", "log2"]

null

搜索最佳分裂时所用的最大变量个数。

If int, 最大变量个数

If float, 最大变量比例

If "auto", then max_features=sqrt(n_features).

If "sqrt", then max_features=sqrt(n_features).

If "log2", then max_features=log2(n_features).

If null, then max_features=n_features.

max_leaf_nodes

int: [1, +∞), {10, 1000, 10}

null

使用best-first fashion生成剪枝树的最大叶子节点数。null表示不限制最大叶子节点数。

min_impurity_decrease

float: [0, 1)

分裂节点时所需的最低impurity decrease

 

GBDTRegression

参数

类型

说明

loss

string: ["ls", "lad", "huber", "quantile"]

损失函数

learning_rate

float: (0, 1), {0.1, 0.9, 0.1}

学习率,越大速度越快,但可能找不到最优解

n_estimators

int: [1, +∞), {10, 500, 10}

boosting stages数量

subsample

float: (0, 1], {0.1, 1, 0.1}

每一个基本学习机使用的样本比例

criterion

string: ["mse", "friedman_mse", "mae"]

评估分裂节点的指标

min_samples_split

int: [1, +∞), {10, 1000, 10}

float: (0, 1)

节点分裂所需的最小样本数。int表示最小样本数,float表示最小样本占总体比例

min_samples_leaf

int: [1, +∞), {10, 1000, 10}

float: (0, 1)

叶子节点的最小样本数。int表示最小样本数,float表示最小样本占总体比例

min_weight_fraction_leaf

float: [0, 1), {0, 0.1, 0.01}

叶节点上(所有输入样本的)权值之和的最小权重

max_depth

int: [1, +∞), {1, 100, 1}

null

树最大深度

min_impurity_decrease

float: [0, 1)

分裂节点时所需的最低impurity decrease

max_features

int: [1, +∞), {10, 1000, 10}

float: (0, 1]

string: ["auto", "sqrt", "log2"]

null

搜索最佳分裂时所用的最大变量个数。

If int, 最大变量个数

If float, 最大变量比例

If "auto", then max_features=sqrt(n_features).

If "sqrt", then max_features=sqrt(n_features).

If "log2", then max_features=log2(n_features).

If null, then max_features=n_features.

alpha

float: (0, 1), {0.1, 0.9, 0.1}

The alpha-quantile of the huber loss function and the quantile loss function. Only if loss='huber' or loss='quantile'

max_leaf_nodes

int: [1, +∞), {10, 1000, 10}

null

使用best-first fashion生成剪枝树的最大叶子节点数。null表示不限制最大叶子节点数。

warm_start

bool

true使用前一次迭代的结果,false不使用前一次结果

 

RFRegression

参数

类型

说明

n_estimators

int: [1, +∞), {10, 500, 10}

树的数量

criterion

string: ["mse", "mae"]

评估分裂节点的指标

max_depth

int: [1, +∞), {1, 100, 1}

null

树最大深度

min_samples_split

int: [1, +∞), {10, 1000, 10}

float: (0, 1)

节点分裂所需的最小样本数。int表示最小样本数,float表示最小样本占总体比例

min_samples_leaf

int: [1, +∞), {10, 1000, 10}

float: (0, 1)

叶子节点的最小样本数。int表示最小样本数,float表示最小样本占总体比例

min_weight_fraction_leaf

float: [0, 1), {0, 0.1, 0.01}

叶节点上(所有输入样本的)权值之和的最小权重

max_features

int: [1, +∞), {10, 1000, 10}

float: (0, 1]

string: ["auto", "sqrt", "log2"]

null

搜索最佳分裂时所用的最大变量个数。

If int, 最大变量个数

If float, 最大变量比例

If "auto", then max_features=sqrt(n_features).

If "sqrt", then max_features=sqrt(n_features).

If "log2", then max_features=log2(n_features).

If null, then max_features=n_features.

max_leaf_nodes

int: [1, +∞), {10, 1000, 10}

null

使用best-first fashion生成剪枝树的最大叶子节点数。null表示不限制最大叶子节点数。

min_impurity_decrease

float: [0, 1)

分裂节点时所需的最低impurity decrease

bootstrap

bool

生成树时是否使用bootstrap

oob_score

bool

是否使用out-of-bag samples估计准确率

warm_start

bool

true使用前一次迭代的结果,false不使用前一次结果

 

LRegression

参数

类型

说明

fit_intercept

bool

是否包含截距项

normalize

bool

是否将数据标准化

 

LassoRegression

参数

类型

说明

fit_intercept

bool

是否包含截距项

alpha

float or null: [0, +], {0.0, 10.0, 0.1}

正则惩罚系数,null表示自动设置,若是float,则cvmax_n_alphas不可用。

normalize

bool

是否将数据标准化

precompute

string: ["auto"]

bool

是否预先计算Gram矩阵来提速

max_iter

int: [1, +∞), {10, 500, 10}

最大迭代次数

cv

int: [2, 20]

交叉验证折数

max_n_alphas

int: [1, +∞) , {100, 1000, 100}

交叉验证搜索的alpha个数

positive

bool

是否强制系数为正

 

 

ENRegression

参数

类型

说明

alpha

float or null: : [0, +], {0.0, 10.0, 0.1}

与惩罚项相乘的常数,null表示自动设置,默认为null

l1_ratio

float or null: [0, 1], {0.0, 1.0, 0.1}

混合参数,l1_ratio=0L2l1_ratio=1L101之间为二者的混合比例,null表示自动设置,默认为null

n_alphas

int: [1, +), {100, 1000, 100}

搜索alpha数量,当alphafloat时,此参数不可用。

cv

int: [2, 20]

交叉验证折数,当alphal1_ratio同时为float时,此参数不可用。

fit_intercept

bool

是否包含截距项

normalize

bool

是否将数据标准化

precompute

bool

是否预先计算Gram矩阵来提速

max_iter

int: [1, +∞), {10, 500, 10}

最大迭代次数

tol

float: (0, 1)

停止迭代的容忍值

warm_start

bool

true使用前一次迭代的结果,false不使用前一次结果,cv不可用时,此参数可用,cv可用时,此参数不可用。

positive

bool

是否强制系数为正

selection

string: ["cyclic", "random"]

"cyclic"表示按变量循环迭代,"random"表示随机迭代系数。

 

RidgeRegression

参数

类型

说明

alpha

float: : [0, +], {0.0, 10.0, 0.1}

正则化强度,必须为正数

fit_intercept

bool

是否包含截距项

normalize

bool

是否将数据标准化

max_iter

int: [1, +∞), {10, 500, 10}

null

最大迭代次数

tol

float: (0, 1)

最终解的精度

solver

string: ["auto", "svd", "cholesky", "lsqr", "sparse_cg", "sag", "saga"]

最优化算法

 

FNNRegressionCNNRegression

由于神经网络的特殊性,此模型参数暂时无法开放

 

XGBRegression

参数

类型

说明

max_depth

int: [1, +∞), {1, 100, 1}

树最大深度

learning_rate

float: (0, 1), {0.1, 0.9, 0.1}

学习率,越大速度越快,但可能找不到最优解

n_estimators

int: [1, +∞), {10, 500, 10}

booster trees数量

objective

string: ["reg:squarederror", "reg:squaredlogerror", "reg:logistic"]

学习目标

reg:squarederror: 平方损失回归;

reg:squaredlogerror:对数平方损失回归;

reg:logistic: logistic回归。

booster

string: ["gbtree", "gblinear", "dart"]

使用booster种类

gamma

float: [0, +∞)

分裂节点时所需的最小损失降低值。

min_child_weight

int: [1, +∞), {10, 1000, 10}

子节点最小样本权重和

max_delta_step

int: [0, +∞), {0, 10, 1}

在每棵树的权重估计中,允许的最大delta步长。

subsample

float: (0, 1], {0.1, 1.0, 0.1}

用于训练模型的子样本占整个样本集合的比例。

colsample_bytree

float: (0, 1], {0.1, 1.0, 0.1}

在建立树时对特征采样的比例。

colsample_bylevel

float: (0, 1], {0.1, 1.0, 0.1}

分裂时,在每个水平层次上,对列的采样比例。

reg_alpha

float: [0, +], {0.0, 10.0, 0.1}

L1正则项

reg_lambda

float: [0, +], {0.0, 10.0, 0.1}

L2正则项

scale_pos_weight

float: (0, +∞)

调节正负样本平衡,负样本/正样本

base_score

float: (0, 1), {0.1, 0.9, 0.1}

预测值的初始值

 

PCARegression

参数

类型

说明

n_components

int or null: [1, min(行数, 列数)]

保留主成分个数,null表示自动设置,默认为null

whiten

bool

是否进行单位根变换

svd_solver

string: ["auto", "full", "arpack", "randomized"]

主成分求解方法,默认为full

tol

float: (0, 1)

求解精度,默认0.0001

fit_intercept

bool

是否包含截距项

normalize

bool

是否将数据标准化

 

多分类模型

【多分类模型】主要用来配置建模时用到的多分类模型,选出的模型将会参与建模流程。

多分类模型包含2种模型:XGBMultiClassificationCNNMultiClassification

抽样次数是指某个模型在建模时使用几份样本。

关于多分类模型的一些参数配置说明,请参考附录3

附录3:多分类模型参数

XGBMultiClassification

参数

类型

说明

max_depth

int: [1, +∞), {1, 100, 1}

树最大深度

learning_rate

float: (0, 1), {0.1, 0.9, 0.1}

学习率,越大速度越快,但可能找不到最优解

n_estimators

int: [1, +∞), {10, 500, 10}

booster trees数量

booster

string: ["gbtree", "gblinear", "dart"]

使用booster种类

gamma

float: [0, +∞)

分裂节点时所需的最小损失降低值。

min_child_weight

int: [1, +∞), {10, 1000, 10}

子节点最小样本权重和

max_delta_step

int: [0, +∞), {0, 10, 1}

在每棵树的权重估计中,允许的最大delta步长。

subsample

float: (0, 1], {0.1, 1.0, 0.1}

用于训练模型的子样本占整个样本集合的比例。

colsample_bytree

float: (0, 1], {0.1, 1.0, 0.1}

在建立树时对特征采样的比例。

colsample_bylevel

float: (0, 1], {0.1, 1.0, 0.1}

分裂时,在每个水平层次上,对列的采样比例。

reg_alpha

float: [0, +], {0.0, 10.0, 0.1}

L1正则项

reg_lambda

float: [0, +], {0.0, 10.0, 0.1}

L2正则项

scale_pos_weight

float: (0, +∞)

调节正负样本平衡,负样本/正样本

base_score

float: (0, 1), {0.1, 0.9, 0.1}

预测值的初始值

 

CNNMultiClassification

由于神经网络的特殊性,此模型参数暂时无法开放

 

执行建模

建模前必须选择目标变量并且在【建模文件】中选择建模文件名称。系统默认模型文件的路径与导入数据的文件在同一目录下,名称与导入文件相同。用户也可以自定义模型文件路径及名称。模型文件后缀为.pcf。如下图:

在菜单栏中点击【执行】à【建模】,或者直接在工具栏中点击执行建模此时会弹出创建模型的窗口并输出建模相关的信息,

最后输出“生成模型文件成功”表示建模完成。

 

建模完成之后,变量面板中会统计出各个变量的“重要度”,如下图所示,通过重要度可以体现出每个变量对未来预测结果的影响力,重要度越高,说明对预测结果影响越大。重要度为0的变量对预测结果无影响。从下面显示结果可以看到,Sex(性别)变量对预测结果影响最大。

模型文件信息

模型描述

易明建模功能中包含多种算法,具体如下:Decision Tree(决策树),Gradient Boosting(梯度提升),Logistic Regression(逻辑回归),Neural Network(神经网络),Random Forest(随机森林),Elastic NetElasticNet回归),LASSO Regression(套索回归),Linear Regression(线性回归),Ridge Regression(岭回归),XGBoost(梯度提升算法)。

执行建模完成后,可以在创建模型窗口中点击按钮来查看使用的算法,模型描述中的算法可以有一种或多种,本示例中的模型描述如下:

  

模型表现

模型表现功能中展示该模型相关信息。

在创建模型窗口中点击【模型表现】按钮:

不同类型的目标变量,模型表现中图表显示的参数及形式也不相同。

以二值变量Survived作为目标变量的模型表现:

以数值变量Age作为目标变量的模型表现: