自然语言工具包 NLTK Python自然语言处理 Python分析时间序列数据 在本章中,我们将学习如何开始使用Natural Language Toolkit Package。 条件 如果我们想用自然语言处理来构建应用程序,那么上下文的变化使得它变得非常困难。上下文因素影响机器如何理解特定句子。因此,我们需要使用机器学习方法开发自然语言应用程序,以便机器也能理解人类理解上下文的方式。 要构建这样的应用程序,我们将使用名为NLTK(Natural Language Toolkit Package)的Python包。 导入NLTK 我们需要在使用之前安装NLTK。它可以在以下命令的帮助下安装 - pip install nltk 要为NLTK构建conda包,请使用以下命令 - conda install -c anaconda nltk 现在安装NLTK包后,我们需要通过python命令提示符导入它。我们可以通过在Python命令提示符下编写以下命令来导入它 - >>> import nltk 下载NLTK的数据 现在导入NLTK后,我们需要下载所需的数据。它可以在Python命令提示符下使用以下命令完成 - >>> nltk.download() 安装其他必要的软件包 要使用NLTK构建自然语言处理应用程序,我们需要安装必要的软件包。包裹如下 - gensim 它是一个强大的语义建模库,可用于许多应用程序。我们可以通过执行以下命令来安装它 - pip install gensim 模式 它用于使 gensim 包正常工作。我们可以通过执行以下命令来安装它 pip install pattern 标记化,词干化和词形还原的概念 在本节中,我们将了解什么是标记化,词干化和词形还原。 符号化 它可以被定义为将给定文本(即字符序列)分解为称为标记的较小单元的过程。标记可以是单词,数字或标点符号。它也被称为分词。以下是标记化的简单示例 - 输入 - 芒果,香蕉,菠萝和苹果都是水果。 输出 - 打破给定文本的过程可以在定位单词边界的帮助下完成。单词的结尾和新单词的开头称为单词边界。书写系统和单词的印刷结构影响边界。 在Python NLTK模块中,我们有与标记化相关的不同包,我们可以根据我们的要求将文本划分为标记。部分套餐如下 - sent_tokenize包 顾名思义,这个包将输入文本分成句子。我们可以借助以下Python代码导入此包 - from nltk.tokenize import sent_tokenize word_tokenize包 此包将输入文本分为单词。我们可以借助以下Python代码导入此包 - from nltk.tokenize import word_tokenize WordPunctTokenizer包 此包将输入文本分为单词和标点符号。我们可以借助以下Python代码导入此包 - from nltk.tokenize import WordPuncttokenizer 词干 在处理单词时,由于语法原因,我们遇到了很多变化。这里的变异概念意味着我们必须处理不同形式的相同词语,如 民主,民主 和 民主化 。机器非常有必要理解这些不同的单词具有相同的基本形式。通过这种方式,在分析文本时提取单词的基本形式会很有用。 我们可以通过阻止实现这一目标。通过这种方式,我们可以说词干是通过切断单词的末尾来提取单词的基本形式的启发式过程。 在Python NLTK模块中,我们有与stemming相关的不同包。这些包可用于获取单词的基本形式。这些包使用算法。部分套餐如下 - PorterStemmer包 这个Python包使用Porter的算法来提取基本形式。我们可以借助以下Python代码导入此包 - from nltk.stem.porter import PorterStemmer 例如,如果我们将 “写入” 这个词作为这个词干的输入,我们将在词干后得到 “写” 这个词。 LancasterStemmer包 这个Python包将使用Lancaster的算法来提取基本形式。我们可以借助以下Python代码导入此包 - from nltk.stem.lancaster import LancasterStemmer 例如,如果我们将 “写入” 这个词作为这个词干的输入,我们将在词干后得到 “写” 这个词。 SnowballStemmer包 这个Python包将使用snowball的算法来提取基本表单。我们可以借助以下Python代码导入此包 - from nltk.stem.snowball import SnowballStemmer 例如,如果我们将 “写入” 这个词作为这个词干的输入,我们将在词干后得到 “写” 这个词。 所有这些算法都有不同的严格程度。如果我们比较这三个词干分析器,那么Porter词干分析器是最不严格的,Lancaster是最严格的。Snowball stemmer在速度和严格性方面都很好用。 词形还原 我们还可以通过词形还原来提取单词的基本形式。它基本上通过词汇和词汇的形态分析来完成这项任务,通常只是为了消除屈折结局。任何单词的这种基本形式称为引理。 词干和词形还原的主要区别在于词汇的使用和词汇的形态分析。另一个不同之处在于,词典最常折叠衍生相关词,而词形词化通常只会折叠词形的不同折叠形式。例如,如果我们提供单词saw作为输入单词,那么词干可能会返回单词's',但是词形还原会尝试返回单词see或saw,具体取决于令牌的使用是动词还是名词。 在Python NLTK模块中,我们有以下与词形还原过程相关的包,我们可以使用它来获得单词的基本形式 - WordNetLemmatizer包 这个Python包将根据它是用作名词还是用作动词来提取单词的基本形式。我们可以借助以下Python代码导入此包 - from nltk.stem import WordNetLemmatizer 分块:将数据分成块 它是自然语言处理的重要过程之一。分块的主要工作是识别词性和短语,如名词短语。我们已经研究了令牌化的过程,即令牌的创建。分块基本上是那些代币的标签。换句话说,分块将向我们展示句子的结构。 在下一节中,我们将了解不同类型的Chunking。 分块的类型 有两种类型的分块。类型如下 - 分手 在这个分块过程中,对象,事物等变得更加通用,语言变得更加抽象。达成协议的可能性更大。在这个过程中,我们缩小。例如,如果我们将问题“为什么汽车是什么”?我们可能得到“运输”的答案。 分手 在这个分块的过程中,对象,事物等变得更具体,语言变得更加渗透。更深层次的结构将在分块中进行检查。在这个过程中,我们放大。例如,如果我们把问题“特意讲述一辆汽车”?我们将获得有关汽车的较小信息。 例 在这个例子中,我们将使用Python中的NLTK模块进行Noun-Phrase分块,这是一种分块,它将在句子中找到名词短语块 - 在python中执行以下步骤来实现名词短语分块 - 步骤1 - 在此步骤中,我们需要定义分块的语法。 它将包括我们需要遵循的规则。 第2步 - 在这一步中,我们需要创建一个块解析器。 它会解析语法并给出输出。 步骤3 - 在最后一步中,输出以树格式生成。 让我们按如下方式导入必要的NLTK包 - import nltk 现在,我们需要定义句子。这里,DT表示行列式,VBP表示动词,JJ表示形容词,IN表示介词,NN表示名词。 sentence=[("a","DT"),("clever","JJ"),("fox","NN"),("was","VBP"), ("jumping","VBP"),("over","IN"),("the","DT"),("wall","NN")] 现在,我们需要给出语法。在这里,我们将以正则表达式的形式给出语法。 grammar = "NP:{<DT>?<JJ>*<NN>}" 我们需要定义一个解析语法的解析器。 parser_chunking = nltk.RegexpParser(grammar) 解析器解析句子如下 - parser_chunking.parse(sentence) 接下来,我们需要获得输出。输出在名为 output_chunk 的简单变量中生成。 Output_chunk = parser_chunking.parse(sentence) 执行以下代码后,我们可以以树的形式绘制输出。 output.draw() 袋子词(BoW)模型 Bag of Word(BoW),一种自然语言处理模型,主要用于从文本中提取特征,以便文本可用于建模,以便在机器学习算法中使用。 现在问题出现了为什么我们需要从文本中提取特征。这是因为机器学习算法不能用于原始数据,它们需要数字数据,以便它们可以从中提取有意义的信息。将文本数据转换为数字数据称为特征提取或特征编码。 怎么运行的 这是从文本中提取特征的非常简单的方法。假设我们有一个文本文档,我们想将其转换为数字数据,或者想要从中提取特征,那么首先这个模型从文档中的所有单词中提取词汇表。然后通过使用文档术语矩阵,它将构建一个模型。通过这种方式,BoW仅将文档表示为一个单词包。关于文档中单词的顺序或结构的任何信息都将被丢弃。 文件术语矩阵的概念 BoW算法通过使用文档术语矩阵来构建模型。顾名思义,文档术语矩阵是文档中出现的各种字数的矩阵。在该矩阵的帮助下,文本文档可以表示为各种单词的加权组合。通过设置阈值并选择更有意义的单词,我们可以构建文档中可用作特征向量的所有单词的直方图。以下是理解文档术语矩阵概念的示例 例 假设我们有以下两句话 - 句子1 - 我们正在使用Bag of Words模型。 句子2 - Bag of Words模型用于提取特征。 现在,通过考虑这两个句子,我们有以下13个不同的词 - 我们 是 运用 该 袋 的 话 模型 是 用过的 对于 提取 特征 现在,我们需要通过在每个句子中使用单词count来为每个句子构建直方图 - 句子1 - [1,1,1,1,1,1,1,1,0,0,0,0,0] 第2句 - [0,0,0,1,1,1,1,1,1,1,1,1,1] 通过这种方式,我们得到了已经提取的特征向量。每个特征向量都是13维的,因为我们有13个不同的单词。 统计的概念 统计的概念称为TermFrequency-Inverse Document Frequency(tf- idf)。每个单词在文档中都很重要。统计数据有助于我们理解每个单词的重要性。 期限频率(tf) 它衡量每个单词出现在文档中的频率。它可以通过将每个单词的计数除以给定文档中的单词总数来获得。 反文档频率(idf) 它衡量一个单词在给定文档集中对该文档的唯一性。为了计算idf并制定一个与众不同的特征向量,我们需要减少常见单词的权重,并对稀有单词进行权衡。 在NLTK中建立一个单词模型 在本节中,我们将使用CountVectorizer从这些句子创建向量来定义字符串集合。 让我们导入必要的包裹 - from sklearn.feature_extraction.text import CountVectorizer 现在定义一组句子。 Sentences = ['We are using the Bag of Word model', 'Bag of Word model is used for extracting the features.'] vectorizer_count = CountVectorizer() features_text = vectorizer.fit_transform(Sentences).todense() print (vectorizer.vocabulary_) 上述程序生成输出,如下所示。它表明我们在上述两个句子中有13个不同的词 - {'we': 11, 'are': 0, 'using': 10, 'the': 8, 'bag': 1, 'of': 7, 'word': 12, 'model': 6, 'is': 5, 'used': 9, 'for': 4, 'extracting': 2, 'features': 3} 这些是可用于机器学习的特征向量(文本到数字形式)。 解决问题 在本节中,我们将解决一些相关问题。 类别预测 在一组文件中,不仅单词而且单词的类别也很重要; 特定单词属于哪种类型的文本。例如,我们想要预测给定句子是否属于电子邮件,新闻,体育,计算机等类别。在下面的示例中,我们将使用tf- idf来制定特征向量以查找文档类别。我们将使用来自sklearn的20个新闻组数据集的数据。 我们需要导入必要的包 - from sklearn.datasets import fetch_20newsgroups from sklearn.naive_bayes import MultinomialNB from sklearn.feature_extraction.text import TfidfTransformer from sklearn.feature_extraction.text import CountVectorizer 定义类别映射。我们使用五个不同的类别,分别是宗教,汽车,体育,电子和太空。 category_map = {'talk.religion.misc':'Religion','rec.autos''Autos', 'rec.sport.hockey':'Hockey','sci.electronics':'Electronics', 'sci.space': 'Space'} 创建训练集 - training_data = fetch_20newsgroups(subset = 'train', categories = category_map.keys(), shuffle = True, random_state = 5) 构建计数向量化器并提取术语计数 - vectorizer_count = CountVectorizer() train_tc = vectorizer_count.fit_transform(training_data.data) print("\nDimensions of training data:", train_tc.shape) tf-idf变换器创建如下 - tfidf = TfidfTransformer() train_tfidf = tfidf.fit_transform(train_tc) 现在,定义测试数据 - input_data = [ 'Discovery was a space shuttle', 'Hindu, Christian, Sikh all are religions', 'We must have to drive safely', 'Puck is a disk made of rubber', 'Television, Microwave, Refrigrated all uses electricity' ] 以上数据将帮助我们训练多项式朴素贝叶斯分类器 - classifier = MultinomialNB().fit(train_tfidf, training_data.target) 使用计数矢量化器转换输入数据 - input_tc = vectorizer_count.transform(input_data) 现在,我们将使用tfidf变换器转换矢量化数据 - input_tfidf = tfidf.transform(input_tc) 我们将预测输出类别 - predictions = classifier.predict(input_tfidf) 输出生成如下 - for sent, category in zip(input_data, predictions): print('\nInput Data:', sent, '\n Category:', \ category_map[training_data.target_names[category]]) 类别预测器生成以下输出 - Dimensions of training data: (2755, 39297) Input Data: Discovery was a space shuttle Category: Space Input Data: Hindu, Christian, Sikh all are religions Category: Religion Input Data: We must have to drive safely Category: Autos Input Data: Puck is a disk made of rubber Category: Hockey Input Data: Television, Microwave, Refrigrated all uses electricity Category: Electronics 性别发现者 在这个问题陈述中,将通过提供名称来训练分类器以找到性别(男性或女性)。我们需要使用启发式来构造特征向量并训练分类器。我们将使用scikit- learn包中的标记数据。以下是构建性别查找器的Python代码 - 让我们导入必要的包 - import random from nltk import NaiveBayesClassifier from nltk.classify import accuracy as nltk_accuracy from nltk.corpus import names 现在我们需要从输入词中提取最后N个字母。这些信件将作为功能 - def extract_features(word, N = 2): last_n_letters = word[-N:] return {'feature': last_n_letters.lower()} if __name__=='__main__': 使用NLTK中提供的带标签名称(男性和女性)创建训练数据 - male_list = [(name, 'male') for name in names.words('male.txt')] female_list = [(name, 'female') for name in names.words('female.txt')] data = (male_list + female_list) random.seed(5) random.shuffle(data) 现在,测试数据将创建如下 - namesInput = ['Rajesh', 'Gaurav', 'Swati', 'Shubha'] 使用以下代码定义用于训练和测试的样本数 train_sample = int(0.8 * len(data)) 现在,我们需要迭代不同的长度,以便比较准确性 - for i in range(1, 6): print('\nNumber of end letters:', i) features = [(extract_features(n, i), gender) for (n, gender) in data] train_data, test_data = features[:train_sample], features[train_sample:] classifier = NaiveBayesClassifier.train(train_data) 分类器的准确度可以如下计算 - accuracy_classifier = round(100 * nltk_accuracy(classifier, test_data), 2) print('Accuracy = ' + str(accuracy_classifier) + '%') 现在,我们可以预测输出 - for name in namesInput: print(name, '==>', classifier.classify(extract_features(name, i))) 上述程序将生成以下输出 - Number of end letters: 1 Accuracy = 74.7% Rajesh -> female Gaurav -> male Swati -> female Shubha -> female Number of end letters: 2 Accuracy = 78.79% Rajesh -> male Gaurav -> male Swati -> female Shubha -> female Number of end letters: 3 Accuracy = 77.22% Rajesh -> male Gaurav -> female Swati -> female Shubha -> female Number of end letters: 4 Accuracy = 69.98% Rajesh -> female Gaurav -> female Swati -> female Shubha -> female Number of end letters: 5 Accuracy = 64.63% Rajesh -> female Gaurav -> female Swati -> female Shubha -> female 在上面的输出中,我们可以看到最大结束字母数的准确度是2,并且随着结束字母数的增加而减少。 主题建模:识别文本数据中的模式 我们知道通常将文档分组到主题中。有时我们需要识别与特定主题相对应的文本中的模式。这样做的技术称为主题建模。换句话说,我们可以说主题建模是一种在给定文档集中发现抽象主题或隐藏结构的技术。 我们可以在以下场景中使用主题建模技术 - 文本分类 在主题建模的帮助下,可以改进分类,因为它将相似的单词组合在一起,而不是将每个单词分别用作特征。 推荐系统 在主题建模的帮助下,我们可以使用相似性度量来构建推荐系统。 主题建模的算法 可以使用算法来实现主题建模。算法如下 - 潜在Dirichlet分配(LDA) 该算法是主题建模最常用的算法。它使用概率图形模型来实现主题建模。我们需要在Python中导入gensim包以使用LDA算法。 潜在语义分析(LDA)或潜在语义索引(LSI) 该算法基于线性代数。基本上它在文档术语矩阵上使用SVD(奇异值分解)的概念。 非负矩阵分解(NMF) 它也基于线性代数。 用于主题建模的所有上述算法将具有作为参数 的主题 的 数量, 作为输入的 文档 - 字矩阵 和作为输出的 WTM(词主题矩阵) 和 TDM(主题文档矩阵) 。 Python自然语言处理 Python分析时间序列数据