《人工智能基础及应用(微课版) 习题及答案 第5章 特征选择与提取概述.docx》由会员分享,可在线阅读,更多相关《人工智能基础及应用(微课版) 习题及答案 第5章 特征选择与提取概述.docx(3页珍藏版)》请在第壹文秘上搜索。
1、习题及参考答案1 .降维的目的是什么?答:(1)提高准确率;(2)减少数据量;(3)数据可视化。2 .降维的方法分哪几类?特点分别是什么?答:(1)直接降维。特点:没有改变原始的特征空间(2)间接降维。特点:改变了原来的特征空间。3 .主成分分析是如何实现数据降维的?答:PCA算法通过正交变换将一组可能存在相关性的变量转换为一组线性不相关的变量,转换后的这组变量的个数通常小于原始变量的个数,可以去除冗余、降低噪音,达到降维的目的。4 .线性判别分析是如何实现数据降维的?答:将高维的样本投影到最佳鉴别矢量空间,即:把高维空间中的数据进行点投影到一条直线上,将多维降为一维。5 .线性判别分析的分类
2、目标是什么?答:目标:类间离差最大,类内离差最小。6 .特征选择的考虑因素有哪些?答:(1)特征是否发散;(2)特征与目标的相关性。7 .特征选择的方法有哪些?特点分别是什么?答:(1)过滤法优点:不依赖于任何机器学习方法,并且不需要交叉验证,计算效率比较高,只需要基础统计知识;缺点:没有考虑机器学习算法的特点,特征之间的组合效应难以挖掘。(2)包装法优点:特征选择直接针对给定学习器来进行优化,从最终学习器的性能来看,包装法比过滤法更优;缺点:特征选择过程中需要多次训练学习器,因此,包装法特征选择的计算开销通常比过滤法大得多。(3)嵌入法特点:使用某些机器学习的算法和模型进行训练,得到各个特征
3、的权值系数,根据系数从大到小选择特征。8 .采用主成分分析法将下列二维数据降为维数据。XY1113234424答:(1)分别计算X和丫的均值(3)计算协方差矩阵(4)cov(X,Y) = (115 115)计算协方差矩阵的特征值A1 = 2.5A2 = 0.5(5)计算特征值对应的特征向量0.7071-0.7071、0.70710.7071)选择较大的特征值对应的特征向量组成特征向量矩阵0.70710.7071/将样本点投影到选取的特征向量上Python程序:importnumpyasnpX=np.array(1,1,lz3z2,3,4,4,2,4)meanval=np.mean(,axis=
4、0)#计算原始数据中每一列的均值,axis=。按歹IJ取均值newData=x-meanval我去均值化covMat=np.Cov(newData,rowvar=0)#计算协方差矩阵featValue,featVec=np.linalg.eig(covMat)#计算协方差矩阵的特征值和特征向量index=np.argsort(featValue)#将特征值按从小到大的顺序排列n_index=index-1#取最大的特征值在原featValue中的下标n_featVec=featVec:,n_index#取最大的特征值对应特征向量lowData=np.dot(newDatazn_featVec)#去均值的数据矩阵与特征向量相乘,得到降维的数据矩阵Print(IowData)#输出降维数据矩阵