NLP任务梳理总结

NLP任务

preview

前处理任务

前处理任务的结果可作为下游任务输入的额外特征。

POSTa(词性标注)

往模型中输入句子,对每一个token进行词性的识别。

识别出的词性可以用于下游任务。

1594730366296

Word Segmentation(分词)

对于英文,显然句子有天然的分词。所以分词通常是针对中文句子。

分词之后,模型的输入就可以以词汇作单位,而不再以字作单位。

以下面例子做说明:

将一个句子按字输入模型,训练模型来对每个字来进行二分类决定每个字的对应位置输出N或者Y(N/Y是词的边界标识)

1594730345737

Parsing(语义分析)

给定句子产生树状结构——句子的语法结构。

1594730317033

Coreference Rosolution(共指消解)

从一段文章或者一段对话中找出指代同一个人或事物的所有词汇。

1594730288553

具体NLP任务

Summarization(文本摘要)

抽取式摘要:基于二分类任务,每个句子分开考虑。

衡量文章中句子应不应该放到摘要里面,但是这么做远远不够。

1594730546937

生成式摘要:属于seq2seq模型,输入长文本,模型用自己的语言进行短摘要的生成。

模型的copy能力:输入文本序列和输出摘要很有可能有很多共用词汇,这些共用词汇经过模型的修改整合形成摘要的文本。因此模型需要增加输入copy能力,怎么实现?Pointer network(指针网络)。

1594731024642

Machine Translation(机器翻译)

seq2seq

1594731217889

audio2seq

1594731234913

audio2audio

1594731256282

Grammer Error Correction(语法纠正)

seq2seq?

1594731422714

不,杀鸡焉用牛刀。

seq2class

输入句子,做分类,输出要对token要做的动作的标识(C/R/A/D)。

1594731565428

C——复制,保持不变

A——在后面增加词汇

R——置换,把词换个时态或者换成别的词

D——删除

Sentiment Classfication(情感分类)

输入一段文本或者评论,训练模型,输出文本的情感分类(正面/负面)。

seq2class

1594731902546

Stance Detection(立场侦测)

seq2class

通过一则博文或者文章以及其下的评论回复来进行评论者所处立场的判断。

立场通常有四类:SDQC(Support、Denying、Querying and Commenting)。

立场侦测经常被用于事实预测:

1594732219826

事实预测:

seq2class

根据新闻消息或者博文的评论立场以及外部的知识判断消息或文章内容的真实性。

Natural Language Inference(自然语言推理)

seq2class

推理模型的文本输入:premise(前提) + hypothesis(假设)

模型输出:对假设是否成立的判断结果,矛盾/包含(可推得)/中立(contradiction/entailment/neutral)

1594732659466

Question Answering(问答)

传统的基于检索的问答系统

简单的(模组少):

1594732834314

  • 问题处理——对问题进行格式化,检测其答案的类别

  • 检索资料库——进行文档、文章的检索选择

  • 答案的生成和评估——从候选文章中抽取答案,抽取的答案根据第一步检测到的答案类别评估其正确性

复杂的(模组多):

1594733010841

和简单架构的区别:

  • 问题处理——模组更多

  • 候选答案生成——综合检索文章得到的候选答案和从自带的有结构资料库中调取的答案

  • 答案评分

  • 融合对等答案,返回答案及其可信度

基于深度学习的QA

seq2seq

输入问题文本和外部结构化/无结构化的知识(大多来自搜索引擎),训练模型得到问题的答案。

1594733651498

但是要实现直接向模型输入问题和外部知识就生成问题答案还有非常长的一段路要走。目前我们常做的只是从文本中抽取答案。

抽取式QA:

seq2seq

答案就在背景文章里面,向模型输入背景文章和问题,其实就是做通常意义上的阅读理解,模型产生抽取的答案文本在文章中的 start position 和 end position。

1594734153658

Dialogue(对话)

对话涉及到自然语言生成(NLG)和自然语言理解(NLU)

Chatting(闲聊)

seq2seq

聊天都是有背景的,所以模型的输入应该是增量式的,模型的输出是根据之前的对话内容产生的。

根据对话的需求可以进行定制:

1594776435524

Task-oriented(任务导向的对话)

seq2seq

需要实现一定的功能,比如提供订票、订餐厅、订酒店等服务

1594776611292

系统架构

1594777065909

State Tracker记录当前对话的状态

知识图

NER(命名实体识别)

seq2class

识别出句子中的人名、地名、组织等实体

1594777317027

RE(关系抽取)

seq2class

输入文本和文本中两个实体,训练模型得到两个实体之间的关系

关系的种类基本是固定的,因此关系抽取的模型往往是去做一个复杂的分类任务

1594777585124

综合任务

综合任务的意义:看模型是否是真的“理解”了人类语言,能“举一反三”

GLUE

分为三大类

  • 文本分类(语法错误检查、文本情感分析)
  • 文本相似度计算
  • 自然语言推理

1594777842236

Super GLUE

包含8个NLP任务,大多和QA有关

DecaNLP

同一个模型解决10个NLP任务

怎么实现?往QA的方向改造这些任务

1594778182492

总结

根据这些NLP任务的输入输出,把这些任务和任务相关的一些技术手段进行梳理

1594778283348

one on one

seq2class

  • 情感分析
  • 立场检测
  • 文本内容辨真伪
  • 文本意图识别
  • 对话决策

seq2tokenclass

  • 词性标注
  • 分词
  • 抽取式摘要
  • 命名实体识别

seq2seq

  • 抽象式摘要
  • 机器翻译
  • 文本语法矫正
  • 自然语言生成

n on one

seq2class

  • 自然语言推理
  • 搜索引擎
  • 关系抽取

copy from input

  • 抽取式QA

seq2seq

  • 常规QA
  • 任务导向对话
  • 聊天机器人
  • State Tracker

others

  • 语义分析
  • 共指消解
原文地址:https://www.cnblogs.com/caoyusang/p/13518949.html