注意:此页面搜索的是所有试题
国家开放大学大数据分析与挖掘技术
如图分别为k=1,k=10,k=30时,训练集数据与测试集数据的分布,说法正确的是( )
【图片】
k=1
【图片】
k=10
【图片】
k=30
【A.】近邻选得越多,模型越容易受敏感点的影响。
【B.】近邻选得越少,模型越容易受敏感点的影响。
【C.】近邻选得越少,模型越稳健,但是不容易发现一些敏感部分。
【D.】近邻选得越少,模型越稳健,越容易发现一些敏感部分。
试想有如图的两类数据,“1”点表示一类数据,“0”点表示另一类数据,当k=1时,请问图中实心的圆点(从左到右)各自属于哪一类。( )【A.】“1”;“1”
【B.】“1”;“0”
【C.】“0”;“0”
【D.】“0”;“1”
下列关于KNN算法说法错误的是( )。
【A.】随着k值的增加,模型的复杂度增大。
【B.】在实际应用中,一般采用交叉验证的方法来估计预测误差,找出使得估计的预测误差最小的k。
【C.】最近邻分类每个样本都可以用它最接近的k个邻居来代表。
【D.】近邻选得少,模型则比较稳健。
如图分别为k=1,k=10,k=30时,训练集数据与测试集数据的分布,说法正确的是( )。
【A.】近邻选得越多,模型越容易受敏感点的影响。
【B.】近邻选得越少,模型越容易受敏感点的影响。
【C.】近邻选得越多,模型越稳健,但是不容易发现一些敏感部分。
【D.】近邻选得越少,模型越稳健,越容易发现一些敏感部分。
下列关于KNN算法说法正确的是( )。
【A.】随着k值的增加,模型的复杂度增大
【B.】在实际应用中,一般采用交叉验证的方法来估计预测误差,找出使得估计的预测误差最小的k。
【C.】最近邻分类每个样本都可以用它最接近的k个邻居来代表
【D.】近邻选得少,模型则比较稳健。
最近邻算法中,随着近邻个数的增加,模型的复杂度增加。
【A.】√
【B.】×
KNN算法在类别决策时,与极少量的相邻样本有关。
【A.】√
【B.】×
近邻选得多,模型则比较稳健。
【A.】√
【B.】×
KNN算法主要靠判别类域的方法来确定所属类别的,而不是靠周围有限的邻近的样本。
【A.】√
【B.】×
KNN算法在类别决策时,与极多数量的相邻样本有关。
【A.】√
【B.】×
KNN算法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的。
【A.】√
【B.】×
在决策树中,节点熵越大,那么( )
【A.】节点的不纯度越低
【B.】节点的不纯度越高
【C.】节点越靠近根节点
【D.】节点越靠近叶节点
(假定在某个节点)如果数据已经只有一类了,则该节点为叶节点,否则进行下一步。该算法是:( )
【A.】Hunt
【B.】ID3
【C.】CART
【D.】C4.5
在决策树中,节点误分率越大,那么( )
【A.】节点的不纯度越低
【B.】节点的不纯度越高
【C.】节点越靠近根节点
【D.】节点越靠近叶节点
采用将样本递归划分建立对象属性与对象值之间映射的算法是:( )
【A.】支持向量机
【B.】决策树
【C.】最近邻分类
【D.】线性判别
【图片】
k=1
【图片】
k=10
【图片】
k=30
【A.】近邻选得越多,模型越容易受敏感点的影响。
【B.】近邻选得越少,模型越容易受敏感点的影响。
【C.】近邻选得越少,模型越稳健,但是不容易发现一些敏感部分。
【D.】近邻选得越少,模型越稳健,越容易发现一些敏感部分。
试想有如图的两类数据,“1”点表示一类数据,“0”点表示另一类数据,当k=1时,请问图中实心的圆点(从左到右)各自属于哪一类。( )【A.】“1”;“1”
【B.】“1”;“0”
【C.】“0”;“0”
【D.】“0”;“1”
下列关于KNN算法说法错误的是( )。
【A.】随着k值的增加,模型的复杂度增大。
【B.】在实际应用中,一般采用交叉验证的方法来估计预测误差,找出使得估计的预测误差最小的k。
【C.】最近邻分类每个样本都可以用它最接近的k个邻居来代表。
【D.】近邻选得少,模型则比较稳健。
如图分别为k=1,k=10,k=30时,训练集数据与测试集数据的分布,说法正确的是( )。
【A.】近邻选得越多,模型越容易受敏感点的影响。
【B.】近邻选得越少,模型越容易受敏感点的影响。
【C.】近邻选得越多,模型越稳健,但是不容易发现一些敏感部分。
【D.】近邻选得越少,模型越稳健,越容易发现一些敏感部分。
下列关于KNN算法说法正确的是( )。
【A.】随着k值的增加,模型的复杂度增大
【B.】在实际应用中,一般采用交叉验证的方法来估计预测误差,找出使得估计的预测误差最小的k。
【C.】最近邻分类每个样本都可以用它最接近的k个邻居来代表
【D.】近邻选得少,模型则比较稳健。
最近邻算法中,随着近邻个数的增加,模型的复杂度增加。
【A.】√
【B.】×
KNN算法在类别决策时,与极少量的相邻样本有关。
【A.】√
【B.】×
近邻选得多,模型则比较稳健。
【A.】√
【B.】×
KNN算法主要靠判别类域的方法来确定所属类别的,而不是靠周围有限的邻近的样本。
【A.】√
【B.】×
KNN算法在类别决策时,与极多数量的相邻样本有关。
【A.】√
【B.】×
KNN算法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的。
【A.】√
【B.】×
在决策树中,节点熵越大,那么( )
【A.】节点的不纯度越低
【B.】节点的不纯度越高
【C.】节点越靠近根节点
【D.】节点越靠近叶节点
(假定在某个节点)如果数据已经只有一类了,则该节点为叶节点,否则进行下一步。该算法是:( )
【A.】Hunt
【B.】ID3
【C.】CART
【D.】C4.5
在决策树中,节点误分率越大,那么( )
【A.】节点的不纯度越低
【B.】节点的不纯度越高
【C.】节点越靠近根节点
【D.】节点越靠近叶节点
采用将样本递归划分建立对象属性与对象值之间映射的算法是:( )
【A.】支持向量机
【B.】决策树
【C.】最近邻分类
【D.】线性判别