注意:此页面搜索的是所有试题
国家开放大学大数据分析与挖掘技术
关于下面的决策树说法不正确的是( )。
【图片】
【A.】此决策树根节点的熵为1.581
【B.】根节点的子节点的熵为0与1
【C.】此根节点的子节点都需要继续划分
【D.】落入Petal.Length≤2.45的数据将为判为setosa一类
下列不属于CART算法的优点的是( )。
【A.】CART对于自变量和因变量不做任何形式的分布假定;
【B.】CART的结果受自变量的单调变换的影响;
【C.】CART分析所产生的树的结构很容易被任何领域的人理解;
【D.】CART能探索和揭示数据中的交互作用。
减枝准则是为了在精确性和复杂性中找到平衡,一般采用( )来度量两者之间的关系。
【A.】代回误分损失
【B.】惩罚常数
【C.】叶节点数目
【D.】复杂性损失
决策树算法中,将当前样本划分为两个子样本,使得生成的每个非叶节点都有两个分支的算法是( )
【A.】Hunt
【B.】ID3
【C.】CART
【D.】C4.5
决策树的cp值越小,那么( )
【A.】模型越复杂
【B.】训练误差越小
【C.】预测误差越小
【D.】模型更简单
关于下面的决策树说法正确的是( )。
【图片】
【A.】此决策树根节点的熵为1.581
【B.】根节点的子节点的熵为0与1
【C.】此根节点的子节点都需要继续划分
【D.】落入Petal.Length≤2.45的数据将为判为setosa一类
下列属于CART算法的优点的是( )。
【A.】CART对于自变量和因变量不做任何形式的分布假定;
【B.】CART的结果受自变量的单调变换的影响;
【C.】CART分析所产生的树的结构很容易被任何领域的人理解;
【D.】CART能探索和揭示数据中的交互作用。
下面关于决策树的剪枝操作理解正确的是( )。
【A.】对决策树进行剪枝是为了降低模型复杂度
【B.】决策树的剪枝操作可以在生成决策树后再剪枝
【C.】不可以在决策树生成过程中剪枝
【D.】一般用复杂度参数设定门限来进行剪枝
下面关于决策树的剪枝操作理解不正确的是( )。
【A.】对决策树进行剪枝的目的是提高模型的预测误差
【B.】对决策树进行剪枝是为了提高模型的解释能力
【C.】只能在生成决策树后再剪枝
【D.】剪枝就是从下往上的剪掉一些节点
决策树中,CART算法生成的决策树是结构简洁的二叉树,在每一步的决策树只能选择“是”或“否”,即使一个feature有多个取值,也只能把数据分为两部分。
【A.】√
【B.】×
CART的结果受自变量的单调变换的影响。
【A.】√
【B.】×
CART的结果不受自变量的单调变换的影响。
【A.】√
【B.】×
决策树中,CART算法生成的决策树是结构简洁的二叉树,在每一步的决策树只能选择“是”或“否”但当一个feature有多个取值,可以把数据分为多个部分。
【A.】√
【B.】×
下列关于随机森林算法,说法错误的是( )
【A.】建立决策树的过程中,需要注意采样和完全分裂两点;
【B.】建立决策树过程中需要两个随机采样,即行采样和列采样;
【C.】对于行采样,采样无放回的方式;
【D.】采用完全分裂的方式构建决策树,这样决策树的某个叶节点要么无法继续分裂,要么里面的所有样本都指向同一个分类。
用随机的方式建立一个森林。森林由很多决策树组成的算法是:( )
【A.】支持向量机
【B.】最近邻分类
【C.】随机森林
【D.】线性判别
【图片】
【A.】此决策树根节点的熵为1.581
【B.】根节点的子节点的熵为0与1
【C.】此根节点的子节点都需要继续划分
【D.】落入Petal.Length≤2.45的数据将为判为setosa一类
下列不属于CART算法的优点的是( )。
【A.】CART对于自变量和因变量不做任何形式的分布假定;
【B.】CART的结果受自变量的单调变换的影响;
【C.】CART分析所产生的树的结构很容易被任何领域的人理解;
【D.】CART能探索和揭示数据中的交互作用。
减枝准则是为了在精确性和复杂性中找到平衡,一般采用( )来度量两者之间的关系。
【A.】代回误分损失
【B.】惩罚常数
【C.】叶节点数目
【D.】复杂性损失
决策树算法中,将当前样本划分为两个子样本,使得生成的每个非叶节点都有两个分支的算法是( )
【A.】Hunt
【B.】ID3
【C.】CART
【D.】C4.5
决策树的cp值越小,那么( )
【A.】模型越复杂
【B.】训练误差越小
【C.】预测误差越小
【D.】模型更简单
关于下面的决策树说法正确的是( )。
【图片】
【A.】此决策树根节点的熵为1.581
【B.】根节点的子节点的熵为0与1
【C.】此根节点的子节点都需要继续划分
【D.】落入Petal.Length≤2.45的数据将为判为setosa一类
下列属于CART算法的优点的是( )。
【A.】CART对于自变量和因变量不做任何形式的分布假定;
【B.】CART的结果受自变量的单调变换的影响;
【C.】CART分析所产生的树的结构很容易被任何领域的人理解;
【D.】CART能探索和揭示数据中的交互作用。
下面关于决策树的剪枝操作理解正确的是( )。
【A.】对决策树进行剪枝是为了降低模型复杂度
【B.】决策树的剪枝操作可以在生成决策树后再剪枝
【C.】不可以在决策树生成过程中剪枝
【D.】一般用复杂度参数设定门限来进行剪枝
下面关于决策树的剪枝操作理解不正确的是( )。
【A.】对决策树进行剪枝的目的是提高模型的预测误差
【B.】对决策树进行剪枝是为了提高模型的解释能力
【C.】只能在生成决策树后再剪枝
【D.】剪枝就是从下往上的剪掉一些节点
决策树中,CART算法生成的决策树是结构简洁的二叉树,在每一步的决策树只能选择“是”或“否”,即使一个feature有多个取值,也只能把数据分为两部分。
【A.】√
【B.】×
CART的结果受自变量的单调变换的影响。
【A.】√
【B.】×
CART的结果不受自变量的单调变换的影响。
【A.】√
【B.】×
决策树中,CART算法生成的决策树是结构简洁的二叉树,在每一步的决策树只能选择“是”或“否”但当一个feature有多个取值,可以把数据分为多个部分。
【A.】√
【B.】×
下列关于随机森林算法,说法错误的是( )
【A.】建立决策树的过程中,需要注意采样和完全分裂两点;
【B.】建立决策树过程中需要两个随机采样,即行采样和列采样;
【C.】对于行采样,采样无放回的方式;
【D.】采用完全分裂的方式构建决策树,这样决策树的某个叶节点要么无法继续分裂,要么里面的所有样本都指向同一个分类。
用随机的方式建立一个森林。森林由很多决策树组成的算法是:( )
【A.】支持向量机
【B.】最近邻分类
【C.】随机森林
【D.】线性判别