当前位置: 首页 > news >正文

自然语言处理NLP入门 -- 第四节文本分类

目标

本章的目标是帮助你理解文本分类的基本概念,并通过具体示例学习如何使用 scikit-learn 训练文本分类模型,以及如何利用 OpenAI API 进行文本分类。


5.1 什么是文本分类?

文本分类(Text Classification)是自然语言处理(NLP)中的一个基础任务,指的是将文本数据自动归类到一个或多个预定义类别中的过程。例如:

  • 垃圾邮件检测:判定邮件是“垃圾邮件”还是“正常邮件”。
  • 情感分析:分析评论或社交媒体上的文本,判断其情感是“正面”、“负面”还是“中性”。
  • 新闻分类:将新闻归类到“体育”、“政治”、“科技”等类别。

文本分类的常见方法

  1. 基于规则的方法:使用关键字匹配等方法进行分类,适用于简单场景。
  2. 机器学习方法:使用 scikit-learn 训练分类模型,如朴素贝叶斯(Naïve Bayes)支持向量机(SVM)等。
  3. 深度学习方法:使用 BERTLSTMTransformer 等深度神经网络进行分类,适用于大规模数据。
  4. 预训练模型(如 OpenAI API):直接使用强大的 NLP 模型进行分类,无需训练自己的模型。

5.2 使用 scikit-learn 训练文本分类模型

步骤

  1. 准备数据集
  2. 文本预处理(分词、去停用词、向量化)
  3. 训练分类模型
  4. 测试和评估模型

示例 1:垃圾邮件分类

我们使用 scikit-learnPipeline 训练一个简单的垃圾邮件分类器。

Step 1:安装必要的库
!pip install scikit-learn numpy pandas nltk
Step 2:导入所需库
import pandas as pd  # 用于处理数据集
import numpy as np  # 用于数值计算
import nltk  # 自然语言处理工具包
from sklearn.model_selection import train_test_split  # 用于数据集划分
from sklearn.feature_extraction.text import TfidfVectorizer  # 用于文本特征提取
from sklearn.naive_bayes import MultinomialNB  # 朴素贝叶斯分类器
from sklearn.pipeline import Pipeline  # 机器学习流水线(自动化处理流程)
from sklearn.metrics import accuracy_score, classification_report  # 评估模型性能
Step 3:加载数据

我们使用一个简单的数据集,其中包含邮件内容及其分类(ham 表示正常邮件,spam 表示垃圾邮件)。

# 创建一个简单的数据集
data = {"text": ["Get free money now!","Hello, how are you?","Congratulations! You have won a prize.","Call me when you get a chance.","Claim your free gift today!","Meeting at 3 PM, don't be late.","Win a brand new iPhone now!"],"label": ["spam", "ham", "spam", "ham", "spam", "ham", "spam"]
}# 转换数据为 Pandas DataFramedf = pd.DataFrame(data)# 将标签(类别)转换为数值(spam = 1, ham = 0)
df['label'] = df['label'].map({'spam': 1, 'ham': 0})
print(df)

示例输出:

                                     text  label
0                     Get free money now!      1
1                     Hello, how are you?      0
2  Congratulations! You have won a prize.      1
3          Call me when you get a chance.      0
4             Claim your free gift today!      1
5         Meeting at 3 PM, don't be late.      0
6             Win a brand new iPhone now!      1
Step 4:数据预处理
  • TfidfVectorizer:将文本转换为数值向量,去除停用词(如 the, and)。
  • MultinomialNB:使用朴素贝叶斯算法进行分类。
# 划分数据集(80% 训练,20% 测试)
X_train, X_test, y_train, y_test = train_test_split(df["text"], df["label"], test_size=0.2, random_state=42)# 创建文本分类管道(Pipeline)
pipeline = Pipeline([("tfidf", TfidfVectorizer(stop_words="english")),  # 文本向量化并去除停用词("classifier", MultinomialNB())  # 朴素贝叶斯分类器
])# 训练模型
pipeline.fit(X_train, y_train)# 进行预测
y_pred = pipeline.predict(X_test)# 评估模型
print("Accuracy:", accuracy_score(y_test, y_pred))
print("Classification Report:\n", classification_report(y_test, y_pred))
Step 5:测试新文本
new_texts = ["Win a free iPhone!", "Meeting at 9 PM online.", "Get rich fast with this simple trick!"]
predictions = pipeline.predict(new_texts)for text, label in zip(new_texts, predictions):print(f"'{text}' -> {'Spam' if label == 1 else 'Ham'}")

示例输出:

'Win a free iPhone!' -> Spam
'Meeting at 9 PM online.' -> Ham
'Get rich fast with this simple trick!' -> Spam

5.3 使用 OpenAI API 进行文本分类

如果你不想训练自己的模型,可以直接使用 OpenAI 的 GPT 进行文本分类。

步骤

  1. 获取 OpenAI API Key
  2. 调用 OpenAI API 进行文本分类
  3. 解析 API 结果
Step 1:安装 openai
!pip install openai
Step 2:编写 API 调用代码
import openai# 设置 API Key(你需要在 OpenAI 官网申请)
openai.api_key = "your-api-key"def classify_text(text):response = openai.chat.completions.create(model="gpt-4",messages=[{"role": "system", "content": "You are a text classification assistant."},{"role": "user", "content": f"Classify the following message as 'spam' or 'ham': {text}"}])return response.choices[0].message.content# 测试 API
test_messages = ["Win a free iPhone!", "Let's have lunch together."]
for msg in test_messages:print(f"'{msg}' -> {classify_text(msg)}")

示例输出

'Win a free iPhone!' -> I would classify this message as 'spam'.
'Let's have lunch together.' -> The message "Let's have lunch together" can be classified as 'ham'.

总结

  • 你学习了 文本分类的基本概念
  • 你用 scikit-learn 训练了一个垃圾邮件分类器
  • 你使用 OpenAI API 进行文本分类,并且可以轻松调用预训练模型。
  • 你可以尝试 不同的数据集和任务,比如情感分析、新闻分类等。

下节课,我们将介绍词向量和文本表示(Word Embeddings),帮助你理解 NLP 如何将文本转化为计算机可理解的数值表示! 🚀

http://www.lryc.cn/news/536379.html

相关文章:

  • 【redis】数据类型之bitmaps
  • 计算机网络-MPLS转发原理
  • 5. 【.NET 8 实战--孢子记账--从单体到微服务--转向微服务】--微服务基础工具与技术--Nacos
  • 【每日关注】科技圈重要动态
  • 【算法】用C++实现A*算法
  • 细胞计数专题 | LUNA-FX7™新自动对焦算法提高极低细胞浓度下的细胞计数准确性
  • 记一次Self XSS+CSRF组合利用
  • JVM 类加载子系统在干什么?
  • Golang轻松实现消息模板变量替换:text/template
  • DeepSeek模型R1服务器繁忙,怎么解决?
  • 《探秘Windows 10驱动开发:从入门到实战》
  • Golang的容器化部署流程
  • 计算机网络,大白话
  • 智慧城市V4系统小程序源码独立版全插件全开源
  • SpringBoot分布式应用程序和数据库在物理位置分配上、路由上和数量上的最佳实践是什么?
  • 【LeetCode Hot100 哈希】两数之和、字母异位词分组、最长连续序列
  • Jenkins 通过 Execute Shell 执行 shell 脚本 七
  • 无人机常见的定位方式
  • 【Git版本控制器】:第一弹——Git初识,Git安装,创建本地仓库,初始化本地仓库,配置config用户名,邮箱信息
  • 使用 EDOT 监测由 OpenAI 提供支持的 Python、Node.js 和 Java 应用程序
  • 基于 STM32 的病房监控系统
  • 线上HBase client返回超时异常分析 HBase callTimeout=60000
  • 03.开闭原则详细介绍
  • 前端职业规划
  • 杂记:STM32 调试信息打印实现方式
  • python+unity落地方案实现AI 换脸融合
  • ComfyUI流程图生图原理详解
  • 【C++ 真题】P1824 进击的奶牛
  • 26、深度学习-自学之路-NLP自然语言处理-理解加程序,怎么把现实的词翻译给机器识别。
  • 24电子信息类研究生复试面试问题汇总 电子信息类专业知识问题最全!电子信息复试全流程攻略 电子信息考研复试真题汇总