生成式人工智能的技术局限和伦理风险.docx

上传人:p** 文档编号:1251380 上传时间:2024-12-18 格式:DOCX 页数:4 大小:10.34KB
下载 相关 举报
生成式人工智能的技术局限和伦理风险.docx_第1页
第1页 / 共4页
生成式人工智能的技术局限和伦理风险.docx_第2页
第2页 / 共4页
生成式人工智能的技术局限和伦理风险.docx_第3页
第3页 / 共4页
生成式人工智能的技术局限和伦理风险.docx_第4页
第4页 / 共4页
亲,该文档总共4页,全部预览完了,如果喜欢就下载吧!
资源描述

《生成式人工智能的技术局限和伦理风险.docx》由会员分享,可在线阅读,更多相关《生成式人工智能的技术局限和伦理风险.docx(4页珍藏版)》请在第壹文秘上搜索。

1、生成式人工智能的技术局限和伦理风险自ChatGPT面世以来,生成式人工智能成为人工智能领域发展的热点。生成式人工智能技术的基本形态,是采用海量数据来训练人工智能大模型,使其学会人类的语言文本和图像视频的统计模式后,能够在用户给出提示指令后,自动地生成所需要的数字内容。与传统人工智能局限于分类、识别等特定功能相比,生成式人工智能更关注创造性内容的生成,展现出前所未有的文字对话、文档撰稿、代码撰写、图片创意、语音合成和视频生成等多样性的能力。生成式人工智能技术综合了60多年以来人工智能的研究成果,特别是最近10年来深度学习的技术突破。首先,能够从海量的语料数据中学习人类知识,熟记文本、语音、图像、

2、视频等内在规律与统计模式,自动生成用户所需要的新文本、图片、声音和视频。其次,实现了大模型的基于大量数据的训练学习通用特征与在特定任务上进行微调以优化性能的学习模式,并能够接受人类反馈进一步强化学习。不但可以记忆通用的人类知识,还可以一直不间断学习专业的知识与技能,并在人类的奖励指导下,输出符合人类道德和法律约束的内容。最后,具备多模态数据的融合机制,动态融合文本、语音、图像、视频等数据,不仅能够生成更为了丰富多样的数字内容,而且通过语音、手势、面部表情等的识别,支撑实现AI像人一样与人类交流互动。总之,生成式人工智能已经展现出了多模态、通用化的认知和交互智能,表现出“由专到通”的强大能力,在

3、自动化文档生成、自动化编程、智能客户服务、供应链管理、产品研发、聪明才智教育和聪明才智医疗等多个领域展现出极大优势,因而成为诸多领域的热门应用。虽然这两三年来生成式人工智能展现出了前所未有的认知和多模态交互能力,但是其内在局限日益凸显,如何继续深入推进生成式人工智能技术发展,使之能够真正广泛落地应用,成为人们关注的焦点。首先,生成式人工智能所依赖的大模型在精准的认知理解和逻辑推理方面存在明显局限。一方面,由于大模型的幻觉现象问题,容易输出事实性错误的内容。另一方面,大模型的内容生成本质上属于概率统计性的词汇预测,所以它无法像人类一样完成长链条的动态逻辑推理。这两大方面的问题意味着很难将生成式人

4、工智能直接嵌入实际业务。因此,如何面向落地场景的需要,消除生成式人工智能的认知幻觉,提升或弥补其逻辑推理能力就成为其进一步发展的关键问题。其次,生成式人工智能面临着规模提升效益瓶颈。在大模型研发中,模型的性能提升和模型参数规模之间满足藤律关系,即模型规模越大,输入的训练数据越多,模型预测能力就越强。因此,很多企业认为只要继续扩大模型规模,就能够在不远的将来实现通用人工智能。但是,一方面,近5年来大模型的参数规模呈现指数级增强趋势,对智能算力的需求与日俱增,最大模型GPT-4的参数规模已经到了万亿级别,需要上万张GPU卡的集群进行数月的模型训练和参数调优。而一些企业还在扩大GPU集群规模,正在投

5、资建设10万张GPU卡,乃至百万张GPU卡的规模。构建和运转如此大规模的智算集群,需要克服集群供电和散热等能耗难题。另一方面,高质量和高密度数据语料库也将成为制约模型规模继续扩大的因素。众所周知,大模型的性能提升需要大量的高质量训练语料,目前语料库主要来自互联网公共领域数据的汇集。有报告指出,预计到2028年大模型训练将耗尽所有互联网公共数据资源,大模型增长不可杜绝地遭遇数据危机。为此,需要面向垂直领域,深度挖掘私域数据,扩大高质量数据共享,以支撑大模型更好适应垂直领域的需求。由此可见,如果生成式人工智能企图单纯以扩大模型规模来实现绝对通用的智能模型,无论是在技术上还是在经济成本上,都不是可一

6、直不间断的技术路线。需要面向垂直领域的业务逻辑和落地场景,有针对性地在业务流程中发挥大模型的长处,弥补其不足,以通专结合的技术路线,实现大模型在产业上的广泛落地与价值赋能。具体地说,就是瞄准领域的重点和难点需求,构造各种各样的专业小模型,与基座大模型相结合,打造领域适配的专业智能体,实现生成式人工智能对现有系统的赋能与升级。生成式人工智能的发展使得相关的伦理安全风险日益突出,大模型认知能力的涌现和内在缺陷给人工智能的社会整治管理带来了更多挑战。首先,基于大模型的生成式人工智能系统缺乏可靠的安全护栏,很容易因受到攻击而输出敏感信息或是价值观错误的内容。由于大模型的“算法黑箱”特征,其功能与行为的

7、可解释性和透明性都是需要深入研究的难点问题。其次,生成式人工智能广泛应用带来的各类衍生风险层出不穷,最突出的是深度合成内容的整治管理问题。大模型生成的各类数字内容与人类创造的内容相比,很多时候已经到了真假难辨的程度,给网络诈骗和虚假内容传播等提供了新的技术手段。为此,急需系统地推行内容标识、水印验证等,建立可行的AI内容溯源管理平台,以力保健康的数字生态环境。最后,生成式人工智能研发与应用的敏捷整治管理将走向系统化和法治化。目前国内外都在积极制定生成式人工智能的法律法规制度,希望既有效地防范这一新兴技术带来的各类潜在和现实风险,又能够促进和规范这一技术的健康发展。为此,分级化的敏捷整治管理成为当前研究的热点,通过设置训练算力阈值,把整治管理的重点放在超大规模神经网络模型的研发和服务上,而对海量中小规模模型的研发活动采用简便的敏捷整治管理模式,从而实现新技术发展进步和有效整治管理的平衡。【作者系北京航空航天大学人工智能学院教授)吴文峻来源:学习时报

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 论文 > 大学论文

copyright@ 2008-2023 1wenmi网站版权所有

经营许可证编号:宁ICP备2022001189号-1

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第壹文秘网,我们立即给予删除!