|
|
当前位置:首页 > ai智能 > 生成式人工智能行业专题研究:海外大模型篇,生成式AI加速创新,行业迎历史性机遇 |
生成式人工智能行业专题研究:海外大模型篇,生成式AI加速创新,行业迎历史性机遇 |
来源:国元证券 时间:2024/9/5 |
1、基础的生成算法模型是驱动AI的关键 2014年,伊恩·古德费洛(lanGoodfellow)提出的生成对抗网络(GenerativeAdversarialNetwork,GAN)成为早期为著名的生成模型。GAN使用合作的零和博弈框架来学习,被广泛用于生成图像、视频、语音和三维物体模型。随后,Transformer、基于流的生成模型(Flow-basedmodels)、扩散模型(DiffusionModel)等深度学习的生成算法相继涌现。 Transformer模型是一种采用自注意力机制的深度学习模型,这一机制可按输入数据各部分的重要性分配权重,可用于自然语言处理(NLP)、计算机视觉(CV)L域应用,后来出现的BERT、GPT-3、laMDA等预训练模型都是基于Transformer模型建立的。 通过梳理主流大语言模型(LLM)的发展脉络,2018年以来的GPT系列、LLaMA系列、BERT系列、Claude系列等多款大模型均发源于Transformer架构。 2、预训练模型引发了AI技术能力的质变 预训练模型是为了完成特定任务基于大型数据集训练的深度学习模型,让AI模型的开发从手工作坊走向工厂模式,加速AI技术落地。 2017年,Google颠覆性地提出了基于自注意力机制的神经网络结构——Transformer架构,奠定了大模型预训练算法架构的基础。 2018年,OpenAI和Google分别发布了GPT-1与BERT大模型,意味着预训练大模型成为自然语言处理L域的主流。 3、预训练数据直接决定AI大模型性能 ScalingLaws:模型容量、数据量、训练成本共同构成了大模型训练的不可能三角。大模型训练的目标是大化模型性能,模型训练成本(GPU的数量和训练时间等)是受限的,因此一般通过增加数据集大小和增加模型中的参数量两种途径来提升模型性能。
![]() |
相关推荐 |
»
推进《人工智能赋能新型工业化》是加快建设制造强国的技术路线
» AI应用流量监控2024上半年,全球AI应用成绩单,ChatGPT和中国产品表现突出 » 兴业银行AI智能财富顾问-用户人次数突破140万户,财富达168亿 » 2024穿越智算奇点-解锁大模型的无限可能,介绍了大模型的基本概念、关键技术、典型应用以及未来发展 » 2024立足当下谋定未来生成式人工智能应用现状前沿洞察报告-生成式AI技术正迅速发展并对企业产生重大影响 » AI时代的黄金卖铲人,如何打造全栈AI帝国-构建硬件、软件和应用的三重壁垒,形成了强大的产品矩阵和生态系统 » AI+汽车:智能驾驶将驶向何方?端到端大模型有望2025大规模落地 » 供应链物流5.0—构建全域数智供应链物流体系,全链路仓配一体化助力 » 2024能源行业发展趋势与技术创新分析报告,工业新四化,工业智能体参考架构 » 2024年工作趋势指数报告-工作中的AI挑战与机遇并存,75%的知识型工作者在工作中使用AI技术 » 2024年中国AI基础数据服务研究报告-市场规模达到45亿元,增长率30.4% » 2024年智能PPT行业市场研究报告-用户需求、市场竞争情况及未来发展趋势 |
![]() ![]() ![]() |
![]() |
|
|
版权所有 © 创泽智能机器人集团股份有限公司 中国运营中心:北京·清华科技园C座五楼 生产研发基地:山东日照太原路71号 电话:4008-128-728 |