《机器学习基础及应用》教案第13课使用人工神经网络实现图像识别(一).docx

上传人:p** 文档编号:926342 上传时间:2024-04-12 格式:DOCX 页数:6 大小:35.51KB
下载 相关 举报
《机器学习基础及应用》教案第13课使用人工神经网络实现图像识别(一).docx_第1页
第1页 / 共6页
《机器学习基础及应用》教案第13课使用人工神经网络实现图像识别(一).docx_第2页
第2页 / 共6页
《机器学习基础及应用》教案第13课使用人工神经网络实现图像识别(一).docx_第3页
第3页 / 共6页
《机器学习基础及应用》教案第13课使用人工神经网络实现图像识别(一).docx_第4页
第4页 / 共6页
《机器学习基础及应用》教案第13课使用人工神经网络实现图像识别(一).docx_第5页
第5页 / 共6页
《机器学习基础及应用》教案第13课使用人工神经网络实现图像识别(一).docx_第6页
第6页 / 共6页
亲,该文档总共6页,全部预览完了,如果喜欢就下载吧!
资源描述

《《机器学习基础及应用》教案第13课使用人工神经网络实现图像识别(一).docx》由会员分享,可在线阅读,更多相关《《机器学习基础及应用》教案第13课使用人工神经网络实现图像识别(一).docx(6页珍藏版)》请在第壹文秘上搜索。

1、课题使用人工神经网络实现图像识别(一)课时2课时(90min)教学目标知识技能目标:(1)了解人工神经元模型的来源(2)掌握M-P神经元模型的基本结构(3)掌握感知机模型、多层感知机模型、全连接神经网络的结构(4)掌握神经网络中常用激活函数的定义及其应用(5)掌握神经网络的训练流程和常用算法素质目标:了解时代新科技,激发学习兴趣和创新思维,增强民族自信心掌握神经网络新算法,打开新思路,提升获取并利用信息的能力教学重难点教学重点:M-P神经元模型的基本结构;感知机模型、多层感知机模型、全连接神经网络的结构;神经网络的训练流程和常用算法教学睚点:神经网络中常用激活函数的定义及其应用教学方法案例分析

2、法、问答法、讨论法、i井授法教学用具电脑、投影仪、多媒体课件、教材教学过程主要教学内容及步骤课前任务【教师】布置课前任务,和学生负责人取得联系,让其提醒同学通过APP或其他学习软件,完成课前任务,扫码观看“人工神经网络”视频,了解人工神经网络的相关知识【学生】完成课前任务考勤【教师】使用APP进行签到【学生】班干部报请假人员及原因问题导入【教师】提出以下问题:什么是人工神经网络?【学生】思考、举手回答传授新知【教师】通过学生的回答引入要讲的知识,介绍人工神经网络的基本原理和神经网络的训练等知识10.1 人工神经网络的基本原理人工神经网络(artificialneuralnetwork,ANN)

3、又称神经网络或连接模型,是一种模拟人类大脑神经系统结构的机器学习方法。人工神经网络是由若干类似神经元的处理单元相互连接而成的庞大的信息处理系统,是对人脑组织结构和运行机制的抽象、简化和模拟。10.1.1 生物神经元与神经元模型1 .生物神经元*【教师】通过多媒体展示“神经元结构”图片(详见教材),并进行讲解人的神经系统是由众多神经元相互连接而成的复杂系统,神经元是神经组织的基本单位。神经元由细胞体和细胞突起组成,如图所示。细胞体是神经元的核心,由细胞核和细胞质等组成。细胞突起由树突和轴突组成,树突是神经元的输入,可以接收刺激并将兴奋传递给细胞体;轴突是神经元的输出,可以将自身的兴奋状态从细胞体

4、传送到另一个神经元或其他组织。神经元之间通过树突和轴突的连接点(即突触)连接。通过突触,神经元可以接收其他神经元的刺激,并且发送信号给其他神经元。神经元有抑制和兴奋两种状态。当神经元处于抑制状态时,轴突并不向外输出信号,当树突中输入的刺激累计达到一定程度,超过某个阈值时,神经元就会由抑制状态转为兴奋状态,同时,通过轴突向其他神经元发送信号。2.MP神经元模型【教师】通过多媒体展示“M-P神经元模型”图片(详见教材),并进行讲解人们通过对生物神经元的研究,提出了人工神经元模型,人工神经元是神经网络的基本单元。1943年,神经生理学家沃伦麦卡洛克和数学家沃尔特皮兹提出了M-P神经元模型,模拟实现了

5、一个多输入单输出的信息处理单元,如图所示。对于M-P神经元模型,它可能同时接收多个输入信号(用不表示),用于模拟生物神经元的树突,接收来自其他神经元的信号,这些信号的来源不同,对神经元的影响也不同,因此给它们分配了不同的权重He计算单元模拟生物神经元中的细胞核,对接收到的输入信号加权求和后,与产生神经兴奋的阈值。相减,得到中间值7,通过激活函数f(激活函数采用阶跃函数)模拟神经兴奋。例如,当Z的值小于。时,神经元处于抑制状态,输出为();当Z的值大于等于O时,神经元被激活,处于兴奋状态,输出为I。输出y模拟生物神经元的轴突,将神经元的输出信号传递给其他神经元。M-P神经元模型可用如下公式表示。

6、y=f(z)=f(gwi-e)其中,叫表示权重,若表示输入信号,e表示神经元产生兴奋的阈值。10.1.2感知机与神经网络1 .感知机感知机也称感知器,是由弗兰克罗森布拉特于1957年提出的。它是最简单的神经网络,是一种广泛使用的线性分类器。【教师】通过多媒体展示“单层感知机模型”图片(详见教材),并进彳方并解感知机由输入层和输出层两层神经元组成,输入层接收外界输入的多个信号后,会传输给输出层(输出层是M-P神经元),由输出层进行数据处理,然后输出分类结果,如图10-3所示。其中,%,为输入信号,y为输出信号,为权重,b为神经元的阈值,由于神经元的阈值也是一个可学习的参数,并且是一个常数,因此将

7、其转化为偏置项,显然鼾当输入信号嘲被送往输出层时,输出层神经元对进行处理的过程为,输入信号雅乘以各自的权重嘴后求和,加上偏置b,再由激活函数处理得到输出y,可用如下公式表示。2 .多层感知机感知机模型是一个线性分类器,无法解决非线性分类问题.为此,人们提出了能够解决非线性分类问题的多层感知机模型。多层感知机模型(multilayerperceptron,MLP)是在感知机模型的输入层和输出层之间加入了若干隐藏层(隐藏层神经元也是拥有激活函数的功能性神经元),以形成能够将样本正确分类的凸域,使得神经网络对非线性情况的拟合程度大大增强,如图104所示。【教师】通过多媒体展示“多层感知机模型”图片(

8、详见教材),并进彳方并解图是一个具有两个隐藏层的多层感知机模型的拓扑结构,最左边一列称为输入层,最右边一列称为输出层,中间两列称为隐藏层.多层感知机是一种前馈神经网络,前馈神经网络是一种单向多层的网络结构,数据从输入层开始,逐层向一个方向传递,直到输出层结束,各层之间没有反馈。所谓前馈是指输入数据的传播方向为前向,在此过程中,并不调整各层的权重和偏置参数。前馈神经网络是应用最广泛、发展最迅速的人工神经网络之一。【指点迷津】在统计神经网络的层数时,输入层一般是不计入层数的。通常将除去输入层的神经网络从左到右依次计数得到的总层数,称为神经网络的最终层数.因此,在图中,把输入层记为第O层,隐藏层记为

9、第1层和第2层,输出层记为第3层,即图10-4是一个3层神经网络。3 .全连接神经网络*【教师】通过多媒体展示“全连接神经网络示例”图片(详见教材),井迸行讲解与一般的神经网络相比,全连接神经网络是一种特殊的神经网络。全连接指的是前一层与后一层中的节点之间全部连接起来。隐藏层中的全部节点都同时与前一层和后一层的全部节点相连接,从而形成全连接神经网络,如图所示.神经网络中,每一层的每个节点都与后一层的所有节点相连接,而图所示的神经网络中,有些节点是与后一层的部分节点相连接,因此,图10-5既是前馈神经网络也是全连接神经网络,而图是前馈神经网络,却不是全连接神经网络.4 .神经网络的激活函数激活函

10、数是一个非线性函数,其作用是去线性化。多层神经网络节点的计算是加权求和,再加上偏置项,是一个线性模型,将这个计算结果传给下一层的节点还是同样的线性模型。只通过线性变换,所有隐藏层的节点就无存在的意义。而加入激活函数,就提供了一个非线性的变换方式,大大提升了模型的表达能力.神经网络中常用的激活函数有Sigmoid函数、Tanh函数和ReLU函数等.*【教师】通过多媒体展示“Sigmoid函数图像”图片(详见教材),并迸行讲解Sigmoid(X)=-(1)Sigmoid函数的数学表达式为1+e.,其图像如图所示。Sigmoid激活函数在神经网络发展初期经常使用,但近几年,使用Sigmoid函数作为

11、激活函数的神经网络已经很少了.原因是神经网络在更新参数时,需要从输出层到输入层逐层进行链式求导,而Sigmoid函数的导数输出是0025的小数,链式求导需要多层导数连续相乘,这就会出现多个0的连续相乘,结果将趋于0,产生梯度消失,使得参数无法继续更新.另外,Sigmoid函数存在幕运算,计算复杂度高,训练时间长.*【教师】通过多媒体展示“Tanh函数图像”图片(详见教材),并进行讲解l-e2xTanh(x)=-(2)Tanh函数的数学表达式为1+e.,其图像如图所示。Tanh函数也是在神经网络中使用较早的激活函数。Tanh函数将Sigmoid函数在y轴上进行了拉伸,使其关于坐标原点对称.Tan

12、h函数的缺点是当自变量很大或很小时,其导数接近于0,会导致权重更新速度较慢。【教师】通过多媒体展示oReLU函数图像”图片(详见教材),并进行讲解x,X.0,其图像如图所示。可见,ReLU函数在原点处是不可微的,但由于神经元中的输入经过加权求和后,出现0的概率极低,因此,ReLU函数仍可作为激活函数使用。ReLU函数无论是前向传播还是反向传播,其速度都比Sigmoid函数和Tanh函数快很多。10.2神经网络的训练10.2.1 神经网络的训练流程神经网络的训练是指从训练数据中自动获取最优参数值的过程,具体流程如下。(1)神经网络的初始化。初始化权重W和偏置b,得到初始模型。(2)前向传播。根据

13、给定的输入X、权重W和偏置b,使用前向传播算法计算得到初始模型的预测值。(3)计算损失函数。选择合适的损失函数计算预测值与真实值的6瓦(4)反向传播。通过反向传播算法求出权重和偏置的梯度,将权重和偏置沿梯度方向进行更新。(5)重复步骤(2)(4),直到达到迭代次数。10.2.2 前向传播算法前向传播算法是指神经网络向前计算最后得到预测值的过程。在神经网络中,前向传播是指输入层接收数据,并将数据传递给隐藏层进行处理,数据在隐藏层的每一层依次处理过后,最后传递给输出层进行最后的处理并输出的过程。【教师】通过多媒体展示“神经网络的前向传播”图片(详见教材),并进行讲解图所示的两层神经网络中,包含两个

14、节点(X。和王)的输入层、3个节点(z。、zI和z2)的隐藏层和两个节点()。和X)的输出层。沙”是输入层到隐藏层的权重J,2是隐藏层到输出层的权重;和”分别是隐藏层和输出层的偏置。神经网络结构前向传播过程计算如下。(1)计算隐藏层的输入:输入层的取值内与权重”的点积,加上对应的偏置,计算公式如下。Sj=VVm%+6=方嗯%+b(2)计算隐藏层的输出:对隐藏层的输入使用激活函数g()进行处理,计算公式如下。Z=g(Sj)=g他忤+*)(3)计算输出层的输入:隐藏层的输出力与权重2)的点积加上对应的偏置,计算公式如下。Pk=卬吟+b=之喷;且仕瞰卢+*+/产;=0I(=0)(4)计算输出层的结果

15、:对输出层的输入P,使用激活函数2进行处理,计算公式如下。然=/(户吟+/)=/哪凶方4看+*+卢J=OV=OJy可见,神经网络的每层结果之间的关系是嵌套,而不是迭代。10.2.3 损失函数损失函数是学习质量的关键,如果使用的损失函数不正确,那么最后很难训练出正确的模型。损失函数的作用是描述模型预测值与真实值的差距大小。损失函数值越小,代表模型得到的结果与真实值的偏差越小,说明模型越精确。神经网络常用的损失函数有均方误差损失函数和交叉嫡误差损失函数,用户也可以自定义损失函数。(1)均方误差损失函数计算的是神经网络的预测值与真实值之差的平方和的均值,一般用于回归问题,其值越小,说明模型越好,它的定义如下.MSE=l.-(x,.)2其中,丫为第i个样本的真实值,于5)为第i个样本的预测值J为样本量。(2)交叉嫡误差损失函数常用于解决分类问题的神经网络,其值越小,代表预测结果越准确。交叉廊吴差损失函数的定义如下.CEE=-Xyinf(xi)Z=O其中,y为第i个样本的真实值,f(Xi)为第i个样本的预测值,为样本量。10.2.4反向传播算法神经网络前向传播时,输入信号经输入层输入,通过隐藏

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 大学课件

copyright@ 2008-2023 1wenmi网站版权所有

经营许可证编号:宁ICP备2022001189号-1

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第壹文秘网,我们立即给予删除!