智能科学与技术学报 ›› 2022, Vol. 4 ›› Issue (1): 97-108.doi: 10.11959/j.issn.2096-6652.202212

• 专题:群体智能 • 上一篇    下一篇

支持鹏程系列开源大模型应用生态演化的可持续学习能力探索

余跃1,2, 刘欣1, 蒋芳清1, 张晗1, 王晖1, 曾炜3   

  1. 1 鹏城实验室网络智能部开源所,广东 深圳 518055
    2 国防科技大学,湖南 长沙 410073
    3 北京大学,北京 100091
  • 修回日期:2022-01-13 出版日期:2022-03-15 发布日期:2022-03-01
  • 作者简介:余跃(1988– ),男,博士,国防科技大学副研究员,鹏城实验室网络智能部开源所技术总师,主要研究方向为智能化软件工程、群体智能、开源生态等
    刘欣(1989– ),男,博士,鹏城实验室网络智能部开源所博士后,主要研究方向为自然语言处理领域大模型持续演进、语义匹配、词义学习、胶囊网络应用等
    蒋芳清(1989– ),男,鹏城实验室网络智能部开源所工程师,主要研究方向为自然语言处理、预训练大模型、小样本学习、持续学习等
    张晗(1993– ),男,鹏城实验室网络智能部开源所联培博士生,主要研究方向为自然语言处理中的可持续学习、小样本学习、多语言机器翻译、预训练语言模型等
    王晖(1968– ),男,博士,鹏城实验室网络智能部开源所研究员,主要研究方向为自然语言处理、分布式机器学习、联邦学习等
    曾炜(1973– ),男,博士,北京大学副研究员,主要研究方向为计算机体系结构、分布式系统、计算机视觉等
  • 基金资助:
    新形势下我国技术开源战略研究(GHZX2020ZCQ013)

Exploration of the continual learning ability that supports the application ecological evolution of the large-scale pretraining Peng Cheng series open source models

Yue YU1,2, Xin LIU1, Fangqing JIANG1, Han ZHANG1, Hui WANG1, Wei ZENG3   

  1. 1 Open Source Institution, Network Intelligence Department, Peng Cheng Laboratory, Shenzhen 518055, China
    2 National University of Defense Technology, Changsha 410073, China
    3 Peking University, Beijing 100091, China
  • Revised:2022-01-13 Online:2022-03-15 Published:2022-03-01
  • Supported by:
    Research on Chinese Technological Open Source Strategy Under New Situation(GHZX2020ZCQ013)

摘要:

大规模预训练模型利用大规模语料以及多样化的预训练任务在自然语言处理领域取得了巨大的成功。随着大模型的逐步发展,大模型的可持续学习能力探索成为新的研究热点。主要介绍鹏程系列大模型持续学习的技术体系、应用实践以及面临的挑战,包括通过任务扩展、数据增量和知识推理的鹏程系列可持续学习技术体系,开源大模型鹏程·盘古多任务可持续学习和鹏程·通言大模型的可持续学习能力实践,大模型可持续学习过程中面临的词表更新、语义映射和知识冲突等挑战。

关键词: 鹏程系列大模型, 可持续学习, 鹏程·盘古, 鹏程·通言, 开源大模型

Abstract:

Large-scale pre-training models have achieved great success in the field of natural language processing by using large-scale corpora and pre-training tasks.With the gradual development of large models, the continual learning ability of large models has become a new research focus.The continual learning technology of the Peng Cheng series large models, the exploration of practice and the still facing challenges were mainly introduced, including the Peng Cheng series continual learning technology through task expansion, data increment and knowledge reasoning, Peng Cheng PANGU multi-task continual learning and the practical exploration of the continual learning ability of the Peng Cheng TONGYAN open source large model, the vocabulary update, semantic mapping and knowledge conflicts that the large model faces in the process of continual learning.

Key words: Peng Cheng series large model, continual learning, Peng Cheng PANGU, Peng Cheng TONGYAN, open source large model

中图分类号: 

No Suggested Reading articles found!