注意:此页面搜索的是所有试题
国家开放大学大数据分析与挖掘技术
决策树算法依据数据类型的不同和树状结构的不同有不同版本的决策树,下列属于决策算法的是:( )
【A.】Hunt
【B.】ID3
【C.】CART
【D.】C4.5
决策树是一种由节点和有向边组成的层次结构。下列属于决策树的节点的是:( )
【A.】根节点
【B.】内部节点
【C.】叶节点
【D.】终节点
决策树中结点的最优划分是依据( )来确定的。
【A.】局部最优性
【B.】信息增益大的划分
【C.】信息增益小的划分
【D.】GINI增益大的划分
决策树中,我们需要比较父节点与子节点的不纯度,他们的差越小,测试条件的效果就越好。
【A.】√
【B.】×
决策树只有单一输出。
【A.】√
【B.】×
决策树中,我们需要比较父节点与子节点的不纯度,他们的差越大,测试条件的效果就越好。
【A.】√
【B.】×
决策树中,ID3算法的一个变量使用过后还能再次使用。
【A.】√
【B.】×
决策树中,ID3算法只能处理定性变量,且一个变量使用过后就不能再次使用了。
【A.】√
【B.】×
决策树中,ID3算法既能处理定性变量,也能处理连续变量、缺失值等。
【A.】√
【B.】×
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以C4.5算法提出了增益比。其中k为划分的总数,关于k的说法正确的是( )
【A.】代表如果某个属性产生了大量的划分,它的划分信息将会很小,从而降低增益比。
【B.】代表如果某个属性产生了大量的划分,它的划分信息将会很小,从而提高增益比。
【C.】代表如果某个属性产生了大量的划分,它的划分信息将会很大,从而降低增益比。
【D.】代表如果某个属性产生了大量的划分,它的划分信息将会很大,从而提高增益比。
决策树算法的C4.5算法可以处理( )。
【A.】定性变量
【B.】缺失值
【C.】连续变量
【D.】剪枝
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以C4.5算法提出了增益比。
【A.】√
【B.】×
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以ID3算法提出了增益比。
【A.】√
【B.】×
决策树中,C4.5算法是ID3算法的延伸,可以处理缺失值、连续变量及剪枝等。
【A.】√
【B.】×
下面关于决策树的剪枝操作理解错误的是( )。
【A.】对决策树进行剪枝是为了降低模型复杂度
【B.】决策树的剪枝操作可以在生成决策树后再剪枝
【C.】不可以在决策树生成过程中剪枝
【D.】一般用复杂度参数设定门限来进行剪枝
【A.】Hunt
【B.】ID3
【C.】CART
【D.】C4.5
决策树是一种由节点和有向边组成的层次结构。下列属于决策树的节点的是:( )
【A.】根节点
【B.】内部节点
【C.】叶节点
【D.】终节点
决策树中结点的最优划分是依据( )来确定的。
【A.】局部最优性
【B.】信息增益大的划分
【C.】信息增益小的划分
【D.】GINI增益大的划分
决策树中,我们需要比较父节点与子节点的不纯度,他们的差越小,测试条件的效果就越好。
【A.】√
【B.】×
决策树只有单一输出。
【A.】√
【B.】×
决策树中,我们需要比较父节点与子节点的不纯度,他们的差越大,测试条件的效果就越好。
【A.】√
【B.】×
决策树中,ID3算法的一个变量使用过后还能再次使用。
【A.】√
【B.】×
决策树中,ID3算法只能处理定性变量,且一个变量使用过后就不能再次使用了。
【A.】√
【B.】×
决策树中,ID3算法既能处理定性变量,也能处理连续变量、缺失值等。
【A.】√
【B.】×
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以C4.5算法提出了增益比。其中k为划分的总数,关于k的说法正确的是( )
【A.】代表如果某个属性产生了大量的划分,它的划分信息将会很小,从而降低增益比。
【B.】代表如果某个属性产生了大量的划分,它的划分信息将会很小,从而提高增益比。
【C.】代表如果某个属性产生了大量的划分,它的划分信息将会很大,从而降低增益比。
【D.】代表如果某个属性产生了大量的划分,它的划分信息将会很大,从而提高增益比。
决策树算法的C4.5算法可以处理( )。
【A.】定性变量
【B.】缺失值
【C.】连续变量
【D.】剪枝
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以C4.5算法提出了增益比。
【A.】√
【B.】×
决策树中,由于信息增益最大的划分原则容易产生小而纯的子集,所以ID3算法提出了增益比。
【A.】√
【B.】×
决策树中,C4.5算法是ID3算法的延伸,可以处理缺失值、连续变量及剪枝等。
【A.】√
【B.】×
下面关于决策树的剪枝操作理解错误的是( )。
【A.】对决策树进行剪枝是为了降低模型复杂度
【B.】决策树的剪枝操作可以在生成决策树后再剪枝
【C.】不可以在决策树生成过程中剪枝
【D.】一般用复杂度参数设定门限来进行剪枝