bert在语言模型中的应用

在早先,单向语言模型广泛应用于文本处理;随之bert双向语言模型诞生后,对语义的捕捉能力更强大。应用之一就是对句子打分,通过生成每个字符的先验概率构建评估体系。

参考源码:https://github.com/xu-song/bert-as-language-model

时刻记着自己要成为什么样的人!
原文地址:https://www.cnblogs.com/demo-deng/p/14749993.html