人工智能基础及应用(微课版) 习题及答案 第5章 特征选择与提取概述.docx

上传人:p** 文档编号:881603 上传时间:2024-03-26 格式:DOCX 页数:3 大小:38.67KB
下载 相关 举报
人工智能基础及应用(微课版) 习题及答案 第5章 特征选择与提取概述.docx_第1页
第1页 / 共3页
人工智能基础及应用(微课版) 习题及答案 第5章 特征选择与提取概述.docx_第2页
第2页 / 共3页
人工智能基础及应用(微课版) 习题及答案 第5章 特征选择与提取概述.docx_第3页
第3页 / 共3页
亲,该文档总共3页,全部预览完了,如果喜欢就下载吧!
资源描述

《人工智能基础及应用(微课版) 习题及答案 第5章 特征选择与提取概述.docx》由会员分享,可在线阅读,更多相关《人工智能基础及应用(微课版) 习题及答案 第5章 特征选择与提取概述.docx(3页珍藏版)》请在第壹文秘上搜索。

1、习题及参考答案1 .降维的目的是什么?答:(1)提高准确率;(2)减少数据量;(3)数据可视化。2 .降维的方法分哪几类?特点分别是什么?答:(1)直接降维。特点:没有改变原始的特征空间(2)间接降维。特点:改变了原来的特征空间。3 .主成分分析是如何实现数据降维的?答:PCA算法通过正交变换将一组可能存在相关性的变量转换为一组线性不相关的变量,转换后的这组变量的个数通常小于原始变量的个数,可以去除冗余、降低噪音,达到降维的目的。4 .线性判别分析是如何实现数据降维的?答:将高维的样本投影到最佳鉴别矢量空间,即:把高维空间中的数据进行点投影到一条直线上,将多维降为一维。5 .线性判别分析的分类

2、目标是什么?答:目标:类间离差最大,类内离差最小。6 .特征选择的考虑因素有哪些?答:(1)特征是否发散;(2)特征与目标的相关性。7 .特征选择的方法有哪些?特点分别是什么?答:(1)过滤法优点:不依赖于任何机器学习方法,并且不需要交叉验证,计算效率比较高,只需要基础统计知识;缺点:没有考虑机器学习算法的特点,特征之间的组合效应难以挖掘。(2)包装法优点:特征选择直接针对给定学习器来进行优化,从最终学习器的性能来看,包装法比过滤法更优;缺点:特征选择过程中需要多次训练学习器,因此,包装法特征选择的计算开销通常比过滤法大得多。(3)嵌入法特点:使用某些机器学习的算法和模型进行训练,得到各个特征

3、的权值系数,根据系数从大到小选择特征。8 .采用主成分分析法将下列二维数据降为维数据。XY1113234424答:(1)分别计算X和丫的均值(3)计算协方差矩阵(4)cov(X,Y) = (115 115)计算协方差矩阵的特征值A1 = 2.5A2 = 0.5(5)计算特征值对应的特征向量0.7071-0.7071、0.70710.7071)选择较大的特征值对应的特征向量组成特征向量矩阵0.70710.7071/将样本点投影到选取的特征向量上Python程序:importnumpyasnpX=np.array(1,1,lz3z2,3,4,4,2,4)meanval=np.mean(,axis=

4、0)#计算原始数据中每一列的均值,axis=。按歹IJ取均值newData=x-meanval我去均值化covMat=np.Cov(newData,rowvar=0)#计算协方差矩阵featValue,featVec=np.linalg.eig(covMat)#计算协方差矩阵的特征值和特征向量index=np.argsort(featValue)#将特征值按从小到大的顺序排列n_index=index-1#取最大的特征值在原featValue中的下标n_featVec=featVec:,n_index#取最大的特征值对应特征向量lowData=np.dot(newDatazn_featVec)#去均值的数据矩阵与特征向量相乘,得到降维的数据矩阵Print(IowData)#输出降维数据矩阵

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 大学课件

copyright@ 2008-2023 1wenmi网站版权所有

经营许可证编号:宁ICP备2022001189号-1

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第壹文秘网,我们立即给予删除!