近年来,BERT等预训练语言模型凭借其优异的性能几乎席卷了整个自然语言处理领域,但BERT模型也带来了巨大的显存消耗和漫长的训练、推理时间,这给BERT的工程化应用带来了阻碍。为此,我们将分享云知声对BERT模型工程化的解决方案。我们首先介绍主流的模型小型化的方法,然后介绍在云知声内部得到广泛应用的预训练语言模型平台UniPLM,以及我们总结的BERT应用工程化方法论,最后,以一个评测为例子,介绍我们拿到评测冠军的技术以及如何把此技术顺利应用在实际生产环境中。
刘升平