|
|
当前位置:首页 > 机器人知识 > OpenAI发布了有史以来最强的NLP预训练模型GPT-3 |
OpenAI发布了有史以来最强的NLP预训练模型GPT-3 |
来源:AI MOOC人工智能平台 时间:2020/6/9 |
2020年5月底OpenAI发布了有史以来强的NLP预训练模型GPT-3,大的GPT-3模型参数达到了1750亿个参数。论文《Language Models are Few-Shot Learners》长达74页已发布在arXiv。 有网友估算大的GPT-3模型大小大约有700G,这个大小即使OpenAI公开模型,我们一般的电脑也无法使用。一般需要使用分布式集群才能把这个模型跑起来。虽然OpenAI没有公布论文的花费,不过有网友估计这篇论文大约花费了上千万美元用于模型训练。 如此惊人的模型在模型的设计上和训练上有什么特别之处吗?答案是没有。作者表示GPT-3的模型架构跟GPT-2是一样的,只是使用了更多的模型参数。模型训练也跟GPT-2是一样的,使用预测下一个词的方式来训练语言模型,只不过GPT-3训练时使用了更多的数据。 既然这样,那这只怪兽特别之处是什么?GPT-3论文的核心在于下图:
|
相关推荐 |
»
达摩院金榕教授113页PPT详解达摩院在NLP、语音和CV上的进展与应用实践
» 重构ncnn,腾讯优图开源新一代移动端推理框架TNN » 知识图谱在个性化推荐领域的研究进展及应用 » 基于网格图特征的琵琶指法自动识别 » 利用时序信息提升遮挡行人检测准确度 » 京东姚霆:推理能力,正是多模态技术未来亟需突破的瓶颈 » 看高清视频,如何做到不卡顿 » 基于真实环境数据集的机器人操作仿真基准测试 » 亿级视频内容如何实时更新 » 深度解析大规模参数语言模型Megatron-BERT » 自然语言处理技术五大技术进展和四大应用与产品 » 自然语言处理技术发展趋势进一步推动人工智能从感知智能向认知智能的演进 |
![]() ![]() ![]() |
![]() |
|
|
版权所有 © 创泽智能机器人集团股份有限公司 中国运营中心:北京·清华科技园C座五楼 生产研发基地:山东日照太原路71号 电话:4008-128-728 |