2020年中山大学《机器学习》期末练习题1.docx

上传人:p** 文档编号:1254630 上传时间:2024-12-24 格式:DOCX 页数:4 大小:14.02KB
下载 相关 举报
2020年中山大学《机器学习》期末练习题1.docx_第1页
第1页 / 共4页
2020年中山大学《机器学习》期末练习题1.docx_第2页
第2页 / 共4页
2020年中山大学《机器学习》期末练习题1.docx_第3页
第3页 / 共4页
2020年中山大学《机器学习》期末练习题1.docx_第4页
第4页 / 共4页
亲,该文档总共4页,全部预览完了,如果喜欢就下载吧!
资源描述

《2020年中山大学《机器学习》期末练习题1.docx》由会员分享,可在线阅读,更多相关《2020年中山大学《机器学习》期末练习题1.docx(4页珍藏版)》请在第壹文秘上搜索。

1、下列各题每个大题10分,共8道大题,卷面总分80分注意:在给出算法时,非标准(自己设计的)部分应给出说明。特别是自己设置的参数与变量的意义要说明。1.下面是一个例子集。其中,三个正例,一个反例。“P”为正例、“N”为反例。这些例子是关于汽车的。例子有4个属性,分别是“产地”、“生产商”、“颜色”、“年代”。产地生产商颜色年代类别1980P1990P1980N1980P其中:“产地”的值域为0、“生产商”的值域为(,)、“颜色”的值域为0、“年代”的值域为(1980,1990)o这里规定“假设”的形式为4个属性值约束:的合取:每个约束可以为:一个特定值(比如、等)、?(表示接受任意值)和(表示拒

2、绝所有值)。例如,下面假设:表示日本生产的、红色的汽车。1) 根据上述提供的训练样例和假设表示,手动执行候选消除算法。特别是要写出处理了每一个训练样例后变型空间的特殊和一般边界;2) 列出最后形成的变型空间中的所有假设O2 .写出3算法。(要求:除标准3算法外,要加入“未知属性值”和“过适合”两种情况的处理)。3 .给出个求最小属性了集的算法。4 .给定训练例子集如下表。依据给定的训练例子,使用朴素贝叶斯分类器进行分类。给定类别未知例子高度=矮,头发=红,眼睛=兰,计算这个例子的类别。(计算类别时要先列出式子,然后再代入具体的数)o例子号高度头发眼睛类别1矮淡黄十2高淡黄3高红A十4高淡黄褐5

3、矮三*AZ-6黑7高黑褐8矮红褐5 .给定线性函数7w=W%+Wrt1+.+H;IX(I与误差定义E=-.7iv)2其中,X,是例子X的第i个属性值,f(x)是目标函数,D是训练例子集合。请给出一个算法,这个算法能求出一组值,使得线性函数/U)逼近目标函数f(x)(本题要求写出算法的步骤,第.法步骤的详细程度要符合书中算法的标准)。6 .给定例子集(如下表),要求:1)用平面图直观画出例子的分布:2)给出一种规则好坏的评判标准:3)写出概念聚类算法。例子X1.X2X3X4e1.OAO1e2OBOOe3OC12e41AO2e51C11e62A1Oe72BO1e82B127 .简述题D简述“机器发

4、现”的三个定律:2)、是分析学习和归纳学习结合的三个算法。简述这三个算法与单纯的归纳学习方法相比,分别有什么区别或优点。8 .关于模式定理D分析“选择步”对群体遗传的影响:令m()是群体中模式s在时间t(或第t代)的实例数量,f(三)是个体h的适应度,一刖是时间t(或第t代)群体中所有个体的平均适应度,n为群体中个体的总数量,於M是时间t(或第t代)群体中模式写的实例的平均适应度。在“选择步”中,每个个体被选中的概率为(三)((三)的计算见公式(1),如果共进行了n次独立选择,请给出在第(1)代(即下代)的群体中,模式S的实例存在的期望数量EDn(1)(要求给出分析过程)。Pr()=(1)1(.2)分析“变异步”对群体遗传的影响:令m()是群体中模式S在时间t(或第t代)的实例数量。设在模式S中有R(三)个确定位,变异操作以概率选择位并改变这位上的值。如果只考虑变异步对群体遗传的影响,请给出在第(1)代(即下一代)的群体中,模式S的实例存在的期望数量Em(D(要求给出分析过程)O

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > 数据结构与算法

copyright@ 2008-2023 1wenmi网站版权所有

经营许可证编号:宁ICP备2022001189号-1

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第壹文秘网,我们立即给予删除!