chatGPT介绍及体验.docx

上传人:p** 文档编号:149540 上传时间:2023-02-19 格式:DOCX 页数:12 大小:143.83KB
下载 相关 举报
chatGPT介绍及体验.docx_第1页
第1页 / 共12页
chatGPT介绍及体验.docx_第2页
第2页 / 共12页
chatGPT介绍及体验.docx_第3页
第3页 / 共12页
chatGPT介绍及体验.docx_第4页
第4页 / 共12页
chatGPT介绍及体验.docx_第5页
第5页 / 共12页
chatGPT介绍及体验.docx_第6页
第6页 / 共12页
chatGPT介绍及体验.docx_第7页
第7页 / 共12页
chatGPT介绍及体验.docx_第8页
第8页 / 共12页
chatGPT介绍及体验.docx_第9页
第9页 / 共12页
chatGPT介绍及体验.docx_第10页
第10页 / 共12页
亲,该文档总共12页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《chatGPT介绍及体验.docx》由会员分享,可在线阅读,更多相关《chatGPT介绍及体验.docx(12页珍藏版)》请在第壹文秘上搜索。

1、ChatGPT介绍及体验-XZ-S刖百ChatGPT,这个由美国人工智能研究实验室OPenAl开发的聊天机器人模型最近火爆全网,从2022年11月30日发布以来,它的注册用户快速攀升,目前日活用户已经超过1个亿。一款AI程序为什么这么快能够吸引大家的注意?它真的会像有些人担心的那样,夺走大部分人的工作吗?ChatGPT之所以能引起大家的注意,是因为它在学习和理解人类语言并根据上下文和人类聊天互动上表现得太“优秀”了,这款Al语言模型,让撰写邮件、论文、脚本,制定商业提案,创作诗歌、故事,甚至敲代码、检查程序错误等变得易如反掌,据报道,ChatGPT能够成功通过谷歌的编程面试,拿到年薪18.3万

2、美元的L3最入门级别工程师Offer,此外,明尼苏达大学的法学教授让ChatGPT尝试了一下他们学校四门课程的研究生考试题,最终ChatGPT以C+的综合成绩通过了所有考试。二、ChatGPT介绍LChatGPT是什么?ChatGPT是美国OPenAl研发的聊天机器人程序,是人工智能技术驱动的自然语言处理工具,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文等任务。2.ChatGPT技术原理技术介绍:ChatGPT是基于GPT-3模型构建的。GPT是GenerativePretrainedT

3、ransformer(生成预训练变换器)的缩写,它是OPenAl推出的一种用于处理自然语言文本大型神经网络模型,GPT-3是它的最新版本。GPT-3模型包含大量的语言数据,能够理解语言的语法和语义。当用户输入问题时,ChatGPT会将问题转换为计算机能够理解的数据,并使用GPT-3模型进行处理。GPT-3模型会根据语言数据,生成一个回答候选集,并从中选择一个最佳回答。最终,ChatGPT会将生成的回答以自然语言的形式返回给用户。SteplCollectdemonstration data and train a supervised policyStep2Collectcomparison d

4、ata and train a reward model.Step3Optimize a policy against the reward model using the PPO reinforcement learning algorithm.Aprompt is sampled from our prompt dataset.Alabeler demonstrates the desired output behavior.Thksdataisusedtofine-tune GPT-IS wrth supervised learning.Aprompt and several model

5、 outputs are sampled.Alabeler ranks the outputs from best to worst.Thisdata is used to train our reward model.Anew prompt is sampled from the dataset.ThePPOfnodeIisinitialized from the supervised policy.Thepolicy generates an outputTbereward model calculates a reward for the output.The reward is use

6、d to update the policy using PPO.如此复杂的模型是怎么训练的呢?简单来说是RLHF(从人类反馈中强化学习),分三步:/收集提示信息(PromPt)和人工形成的任务示例(demonstration),并用监督学习方法训练模型Q,将初始模型用在新的对比数据上,生成多个输出,人工对这些输出进行排序,排序结果用于训练奖励模型Q,使用PPO(ProximalPolicyOptimization)强化学习算法训练奖励模型核心竞争力ChatGPT受到关注的重要原因是引入新技术RLHF(ReinforcementLearningwithHumanFeedback,即基于人类反馈

7、的强化学习)。RLHF解决了生成模型的一个核心问题,即如何让人工智能模型的产出和人类的常识、认知、需求、价值观保持一致。ChatGPT是AIGC(AI-GeneratedContent,人工智能生成内容)技术进展的成果。该模型能够促进利用人工智能进行内容创作、提升内容生产效率与丰富度。技术局限ChatGPT的使用上还有局限性,模型仍有优化空间。ChatGPT模型的能力上限是由奖励模型决定,该模型需要巨量的语料来拟合真实世界,对标注员的工作量以及综合素质要求较高ChatGPT可能会出现创造不存在的知识,或者主观猜测提问者的意图等问题,模型的优化将是一个持续的过程。若AI技术迭代不及预期,NLP模

8、型优化受限,则相关产业发展进度会受到影响。3ChatGPT用处当你开通ChatGPT之后,你的程序就可以通过接口完成以下基本的49件事情了,具体如下:问&答Q&AAnswer QUeSUg3 based on existing krxMe.内容概况BSummarize foe a 2nd graderTranstotgdHncM text into simpler ConCeP 一程序命令生成Text to commandC a!0to*t r!a pfqrrnn-jFr cr fnmand-.StriPe国际APl生成HNaturaI language to Stripe APICroatQ

9、 codo to CaM t Stripo API using nt.结构化生成 Parse unstructured dataCreate tables from long form text语法纠正nrcorrection sentet answers qucstxxs about SngUdQO-文本情绪分析Tweet classifierBasic sentiment detection fco of cod.问题解答Factual answeringGuide the model towards factual answeng产品取名Product name generatorCreate product names from examples word.好友聊天FriendchatEmulate a text moss9 conversation.程序文档生成Write a Python docstringAn example of how to create a doclring for.代码压缩JavdScrIpt one line functionTum a JavaScript function into a one iinor.人称转换Third-person converter

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > 网站策划/UE

copyright@ 2008-2023 1wenmi网站版权所有

经营许可证编号:宁ICP备2022001189号-1

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第壹文秘网,我们立即给予删除!