NLP基本任务-nltk_data文本分割

将文本分割为句子

nltk.sent_tokenize(text,language)

text:需要分割的文本

language:语言种类

czech捷克语

danish丹麦语

dutch荷兰语

english英语

estonian爱沙尼亚语

finnish芬兰语

french法语

german德语

greek希腊语

italian意大利语

norwegian挪威语

polish波兰语

portuguese葡萄牙语

slovene斯洛文尼亚语

spanish西班牙语

swedish瑞典语

turkish土耳其语

怎么没中文呢,为什么会没中文呢?没中文我在怎么办啊?

原文地址:https://www.cnblogs.com/hpuCode/p/4421385.html