知识图谱系列---自然语言处理---分词词向量与文本分类

【分词与词向量】

主要是 jieba 和 gensim.models.word2vec 使用

【结巴分词资料汇编】结巴中文分词官方文档分析(1)

【结巴分词资料汇编】结巴中文分词源码分析(2)

【结巴分词资料汇编】结巴中文分词基本操作(3)

python版本word2vec实现

python版本doc2vec实现

参数数据源:http://mattmahoney.net/dc/text8.zip

【自然语言处理】

自然语言处理——词的表示

词向量模型(word2vec)详解

高级词向量表示

自然语言处理简述

自然语言处理之jieba分词

自然语言处理之word2vec

自然语言处理之序列标注问题

自然语言处理之信息论基础

自然语言处理之卷积神经网络应用

自然语言处理之LDA主题模型

【NLP之算法】:PayPal高级工程总监的100篇论文(附下载)

【NLP之算法】:蓦然回首之学习模型的评估系列文章(1-4)

【NLP之算法】:揭秘马尔可夫模型神秘面纱系列文章(1-5)

【NLP之算法】:一起走进条件随机场(1-5)

【NLP之算法】:十分钟快览自然语言处理总结

【NLP之算法】:快速了解什么是自然语言处理

NLP中的预训练语言模型(一)—— ERNIE们和BERT-wwm

NLP中的预训练语言模型(二)—— Facebook的SpanBERT和RoBERTa

NLP中的预训练语言模型(三)—— XL-Net和Transformer-XL

NLP中的预训练语言模型(四)—— 小型化bert(DistillBert, ALBERT, TINYBERT)

NLP中的预训练语言模型(五)—— ELECTRA

探讨自然语言处理技术学习与思考

NLP手记系列:结巴分词和自然语言处理HanLP处理手记

NLP之项目总结:基于文本相似度对申报项目进行查重设计

NLP之项目总结:Python NLTK 走进大秦帝国

NLP之文本挖掘:Python NLTK处理系列文章(1-5)

NLP之工具:简明GitHub操作教程指南

NLP之工具:结巴分词官方文档和源码分析系列文章

NLP之工具:Python自然语言处理工具小结

NLP之工具:驾驭文本,OpenNLP和分词那些事

NLP之本体:领域本体的构建方法概述

NLP之语料库:谈谈语料库知多少

【文本分类实战】

【文本处理】自然语言处理在现实生活中运用

【文本处理】多种贝叶斯模型构建及文本分类的实现

【文本处理】快速了解什么是自然语言处理

【文本处理】领域本体构建方法概述

【文本处理】OpenNLP:驾驭文本,分词那些事

【文本处理】【NLP】Tika 文本预处理:抽取各种格式文件内容

【文本处理】自己动手搭建搜索工具

文本分类实战(一)—— word2vec预训练词向量

文本分类实战(二)—— textCNN 模型

文本分类实战(三)—— charCNN模型

文本分类实战(四)—— Bi-LSTM模型

文本分类实战(五)—— Bi-LSTM + Attention模型

文本分类实战(六)—— RCNN模型

文本分类实战(七)—— Adversarial LSTM模型

文本分类实战(八)—— Transformer模型

文本分类实战(九)—— ELMO 预训练模型

文本分类实战(十)—— BERT 预训练模型

https://github.com/jiangsiwei2018/BigData.git 实例代码git仓库地址
原文地址:https://www.cnblogs.com/satansz/p/12903500.html