当前位置: 首页 > news >正文

python NLTK快速入门

目录

  1. NLTK简介
  2. 安装NLTK
  3. 主要模块及用法
    • 词汇与语料库
    • 分词与词性标注
    • 句法分析
    • 情感分析
    • 文本分类
  4. 综合实例:简单的文本分析项目
  5. 总结

1. NLTK简介

NLTK(Natural Language Toolkit)是一个强大的Python库,专门用于自然语言处理(NLP)任务,常用于文本分析、语言数据处理和机器学习。NLTK包含丰富的语料库和词汇资源,还提供了众多分析工具。

2. 安装NLTK

在Python环境下,您可以用以下命令来安装NLTK:

pip install nltk

之后,运行下面代码来下载NLTK的语料库(语料库包含了大量预训练的文本数据):

import nltk

nltk.download('all')


3. 主要模块及用法

3.1 词汇与语料库

NLTK 提供了许多内置的语料库和词典,可以帮助我们更好地分析文本。

from nltk.corpus import gutenberg # 获取《爱丽丝梦游仙境》前100个字符 
text = gutenberg.raw('carroll-alice.txt') 
print(text[:100])

讲解:这里我们使用 gutenberg 语料库,它包含了很多经典书籍的文本。我们选择了《爱丽丝梦游仙境》并打印了前100个字符。

3.2 分词与词性标注

在自然语言处理中,分词(Tokenization)和词性标注(POS Tagging)是常见的基础操作。

分词示例

from nltk.tokenize import word_tokenize text = "NLTK makes it easy to work with text data." tokens = word_tokenize(text) print(tokens)

讲解word_tokenize 函数会将一句话分割成一个个词语。这里我们输入了一段文字,输出结果是按词语切分的一个列表。

词性标注示例

from nltk import pos_tag 
tokens = word_tokenize("The quick brown fox jumps over the lazy dog.") 
tagged = pos_tag(tokens) 
print(tagged)

讲解pos_tag 函数会将分好的词语标注上词性(如名词、动词等),输出的是一个包含词语及其词性标注的元组列表。

3.3 句法分析

NLTK 提供了句法分析工具,可以帮助我们解析句子的语法结构。

示例

from nltk import CFG 
from nltk.parse import RecursiveDescentParser # 定义简单的语法 
grammar = CFG.fromstring(""" S -> NP VP NP -> Det N VP -> V NP Det -> 'the' N -> 'cat' | 'dog' V -> 'chases' """) parser = RecursiveDescentParser(grammar) 
sentence = "the cat chases the dog".split() 
for tree in parser.parse(sentence): print(tree)

讲解:这里我们定义了一个简单的上下文无关语法(CFG)来解析句子结构,然后使用 RecursiveDescentParser进行解析。

3.4 情感分析

情感分析是自然语言处理中非常常见的任务,用来分析文本的情感(如积极、消极等)。

示例

from nltk.sentiment import SentimentIntensityAnalyzer sia = SentimentIntensityAnalyzer() 
text = "I love programming!" 
sentiment = sia.polarity_scores(text) 
print(sentiment)

讲解SentimentIntensityAnalyzer 会给出一个情感分数,输出包含正面、负面、客观及总体评分。

3.5 文本分类

NLTK也提供了文本分类的基本工具,可以帮助我们训练模型进行文本分类。

示例

import random
from nltk.classify import NaiveBayesClassifier
from nltk.corpus import movie_reviews# 数据处理:随机打乱文档列表
documents = [(list(movie_reviews.words(fileid)), category)for category in movie_reviews.categories()for fileid in movie_reviews.fileids(category)
]
random.shuffle(documents)  # 随机打乱顺序,以避免偏差# 特征提取:将单词作为特征
def document_features(words):return {word: True for word in words}# 准备训练集
train_set = [(document_features(d), c) for (d, c) in documents]# 训练分类器:使用前100个文档进行训练
classifier = NaiveBayesClassifier.train(train_set[:100])# 测试分类
test_words = ["love", "wonderful", "amazing"]
print("测试句子:", test_words)
print("分类结果:", classifier.classify(document_features(test_words)))# 显示分类器的性能
print("\n分类器的特征:")
classifier.show_most_informative_features(5)

讲解:这里我们使用了贝叶斯分类器(Naive Bayes),并使用影评数据集对其进行训练,最终用“love”、“wonderful”等词进行分类测试。


4. 综合实例:简单的文本分析项目

结合以上知识点,我们可以进行一个简单的文本分析小项目。

示例:分析电影影评的情感倾向

from nltk.classify import NaiveBayesClassifier
from nltk.corpus import movie_reviews# 数据处理
documents = [(list(movie_reviews.words(fileid)), category)for category in movie_reviews.categories()for fileid in movie_reviews.fileids(category)
]# 特征提取
def document_features(words):return {word: True for word in words}# 训练分类器
train_set = [(document_features(d), c) for (d, c) in documents]
classifier = NaiveBayesClassifier.train(train_set[:100])# 测试分类
print(classifier.classify(document_features(["love", "wonderful", "amazing"])))

讲解:这里我们用影评数据集,并结合情感分析器进行影评倾向判断。通过遍历所有影评,统计正面和负面影评的数量。


5. 总结

通过以上步骤,您已经掌握了 NLTK 的核心用法,包括分词、词性标注、句法分析、情感分析和文本分类等。

http://www.lryc.cn/news/477675.html

相关文章:

  • 技术速递|.NET 9 中 System.Text.Json 的新增功能
  • LLM 使用 Elastic 实现可观察性:Azure OpenAI (二)
  • 数据库基础(2) . 安装MySQL
  • 高效自动化测试,引领汽车座舱新纪元——实车篇
  • GitHub中搜索项目方法
  • 浅谈串口服务器的作用
  • Spark 的Standalone集群环境安装与测试
  • 在Java中,实现数据库连接通常使用JDBC
  • Git 测验
  • L1G3000 提示工程(Prompt Engineering)
  • 【SQL50】day 1
  • jmeter脚本-请求体设置变量and请求体太长的处理
  • 基于java+SpringBoot+Vue的旅游管理系统设计与实现
  • SD3模型的部署(本地部署)
  • 讲解DFD和ERD
  • TVM计算图分割--LayerGroup
  • OPPO开源Diffusion多语言适配器—— MultilingualSD3-adapter 和 ChineseFLUX.1-adapter
  • Spring 设计模式之责任链模式
  • 简单的 docker 部署ELK
  • 四款主流的3D创作和游戏开发软件的核心特点和关系
  • 聚划算!Transformer-LSTM、Transformer、CNN-LSTM、LSTM、CNN五模型多变量回归预测
  • 信息安全工程师(76)网络安全应急响应技术原理与应用
  • 使用 OpenCV 实现图像的透视变换
  • openGauss数据库-头歌实验1-4 数据库及表的创建
  • 吉利极氪汽车嵌入式面试题及参考答案
  • pycharm中的服务是什么?
  • [Unity Demo]从零开始制作空洞骑士Hollow Knight第十七集:制作第二个BOSS燥郁的毛里克
  • 深度解析阿里的Sentinel
  • Linux系统-日志轮询(logrotate)
  • 机器学习在时间序列预测中的应用与实现——以电力负荷预测为例(附代码)