|
|
当前位置:首页 > ai智能 > ChatGPT 以 GPT+RLHF 模型为核心支撑,为 AIGC 发展指明方向 |
ChatGPT 以 GPT+RLHF 模型为核心支撑,为 AIGC 发展指明方向 |
来源:浙商证券 时间:2023/3/20 |
ChatGPT 将海量训练数据与 Transformer 框架结合,在 GPT 模型的基础上通过 RLHF 模型提升交互聊天能力,实现了对自然语言的深度建模,Transformer 有望在未来 较长时间内成为 AIGC 语言L域的核心技术框架。 Transformer 架构为自然语言理解L域带来颠覆性变革,应用到 NLP、CV、生物、化 学等多L域。2017 年,谷歌跳出 RNN 和 CNN 的结构,提出了完全基于 Self-Attention 机 制的 Transformer 架构,当时在机器翻译任务上取得了颠覆性的进步。Transformer 由一个 编码器和一个解码器组成,且各自由若干个编码/解码模块堆叠而成,每个模块包含 MultiHead Attention 层、全连接层等功能不同的工作层。 Transformer 架构优势突出,计算效率、并行度、解释性均实现突破。相比于之前的 框架 Transformer 架构除了在计算的时间复杂度更优外,还有 3 大优势: (1)可直接计算点乘结果,并行度G:对于数据序列 x1,x2……xn ,self-attention 可 以直接计算任意两节点的点乘结果,而 RNN 需要按照顺序从 x1 计算到 xn。 (2)一步计算,解决长时依赖问题:处理序列信息使,通常用要经过的路径长度衡量 性能,CNN 需要增加卷积层数来扩大视野,RNN 只能逐个进行计算,而 self-attention 只需 要一步矩阵计算就可以,更好地解决长时依赖问题。 (3)模型更可解释:self-attention 模型更可解释,attention 结果的分布可反映该模型 学习到了一些语法和语义信息。
|
相关推荐 |
»
AIGC领域相关初创公司及业务场景梳理
» 国内科技大厂布局生成式 AI,未来有望借助业务生态推出爆款应用产品 » 国内细分赛道企业在 AIGC 各应用场景有哪些布局 » 人工智能研发运营体系(ML0ps)实践指南2023 » CHATGPTAI掀起AI浪潮助力制造业发展 » AI的应用场景有:消费端、产业端和多个行业 » 中国移动天津公司、亚信科技:“天工”AIGC智慧客服虚拟数字人解决方案 » 中国邮政储蓄银行、科蓝软件:科蓝智能高柜数币机器人“小蓝” » 大规模语言模型发展经过三阶段在2023年进⼊爆发阶段 » 大语言模型研发的关键影响要素 » 大模型训练参数规模量级最高或达5万亿以上 » 新华社研究院发布《人工智能大模型体验报告2.0》 |
![]() ![]() ![]() |
![]() |
|
|
版权所有 © 创泽智能机器人集团股份有限公司 中国运营中心:北京·清华科技园C座五楼 生产研发基地:山东日照太原路71号 电话:4008-128-728 |