当前位置: 首页 > news >正文

循环神经网络--NLP基础

一、简单介绍

        NLP(Natural Language Processing):自然语言处理是人工智能和语言领域的一个分支,它涉及计算机和人类语言之间的相互作用。

二、NLP基础概念

        词表(词库):文本数据集出现的所有单词的集合;

        语料库:用于自然语言处理NLP的文本数据集合,可以是书籍、文章、网页等;

注意:

  • 词库需去重:避免冗余,确保每个词汇的属性记录唯一。

  • 语料库无需刻意去重:保留重复以反映真实语言使用规律,支撑统计分析。

        词嵌入:将单词、文本映射到低维度的连续向量空间的技术,用于捕捉单词的语义和语法信息;   

三、NLP的特征工程

3.0特征工程提出的必要         

        在NLP中,我们处理的对象通常是文本资料,但是计算机只能识别数字信息。因此,特征工程是一种必要的手段:特征工程将文本数据转换为适合机器学习模型使用的数值表示过程,即将文本信息转换为数字信息的过程。

3.1词向量

        词向量也称为词嵌入(word embedding):指的是将文本资料转换为低维连续向量的过程。这些向量能够体现词语之间的语义关系。

        通过词嵌入这种方式,每一个单词都有唯一的词向量,将文本数据信息转换为了数字信息,这样机器就可以对单词进行计算,如利用余弦相似度公式,可以得出单词之间的相似度,相似度越高,两个单词在向量空间中靠的越近,夹角越小。

3.2传统的NLP特征工程

3.2.1one-hot独热编码

        one-hot:将每一个类别表示为一个向量,它的组成只能由0,1组成,并且在表示一个单词的时候,只能有一个单词为1,其他单词必须全部为0。

        因此,我们可以发现,如果单纯利用独热编码表示向量,

(1)我们写的文本资料多有少个字,那向量就有多长,这样会导致计算量巨大;

(2)想表示一段话的时候,最多不超过30个字,这时候其他的位置就必须全部为0,向量矩阵过于稀疏。

3.2.2词频-逆文档频率(TF-IDF)

        词频TF:在给定文档中,单个单词在文章中出现的频率-----出现次数/该文档的总词数

        逆文档频率IDF:用于衡量一个单词的重要程度,是将类似词频取倒数并取对数的值;

注意:

IDF 大的词,说明它在多数文档中不出现,仅在特定文档中出现,因此能有效区分不同主题的文档

        TF-IDF:综合考虑了词频和逆文档频率,取值为词频与逆文档频率的乘积结果。

3.3深度学习中NLP的特征输入

3.3.1稠密编码

        稠密编码的方式通常在特征嵌入中出现:将离散或高维稀疏数据转化为低维的连续、密集向量。

        特点:

(1)低维度:转换为低维度的向量之后,减少了计算和存储成本;

(2)语义相似度:引入余弦相似度公式计算语义相似性;

(3)可微学习:通过神经网络进行学习,反向传播算法进行优化。

3.3.2词嵌入算法

3.3.2.1embedding layer

        嵌入层用于神经网络的前端,并采用反向传播算法进行监督(更新优化)。向量矩阵以小的随机数进行初始化。

        它主要是用来实现输入词的向量化的。

        API:nn.Embedding(len(set_word),embedding_dim)

 将输入词转换为词向量的步骤:

(1)对文本进行分词;

(2)构建映射词表,这里必须用去重的句子;

(3)使用嵌入层,调用nn.Embedding.

代码:

import torch
import torch.nn as nn
sentences = 'I like a dog , it is cute'
#分词
sentences = sentences.split(' ')#去重
sentences = list(set(sentences))#映射
word_index = {word:index for index,word in enumerate(sentences)}
index_word = {index:word for index,word in enumerate(sentences)}#向量化
embedding = nn.Embedding(len(sentences),4)
index = word_index['dog']
output = embedding(torch.tensor([index]))
print(output)

结果:

tensor([[-0.1077, -1.3688, -0.5193, -0.2856]], grad_fn=<EmbeddingBackward0>)

3.3.2.2word2vec

        word2vec是一种高效训练词向量的模型。一般分为CBOW模型和Skip-Gram模型:

(1)CBOW:根据周围词来预测中心词;

(2)Skip-Gram:根据中心词预测周围词。

API:from gensim.model import Word2Vec

gensim库需要自行下载:pip install gensim

model = Word2Vec(sentences,vector_size,window,min_count,sg)

参数介绍:

sentences:二维list。

vector_size:特征信息维度。

window:当前词与预测词在一个句子中最大的距离。

min_count:可以对字典做截断,词频少于min_count次数的单词会被丢弃掉,默认值为5。

sg:设置为0,对应CBOW算法;设置为1对应Skip-Gram算法。

四、总结

        大致了解了NLP的简单术语,以及如何通过嵌入层实现对文本进行向量化,还可以利用现成模型word2vec对单词向量化。主要是了解一下大致知识就行,过过代码就可以了。本节内容要求没有严格。

http://www.lryc.cn/news/596749.html

相关文章:

  • 2025年6月GESP(C++五级):最大公因数
  • 【第三节】Class与Style绑定
  • p5.js 圆弧的用法
  • Git GitHub精通:前端协作开发的“瑞士军刀“!
  • ubuntu22.04 录视屏软件推荐
  • Vercel AI SDK 3.0 学习入门指南
  • Android-API调用学习总结
  • javaSE(从0开始)day14
  • 数据交换---JSON格式
  • C语言:第11天笔记
  • JavaScript 02 数据类型和运算符数组对象
  • numpy库 降维,矩阵创建与元素的选取,修改
  • 生成式人工智能展望报告-欧盟-01-引言
  • Vue开发常用
  • 2025 年最新 AI 技术:全景洞察与深度解析​
  • 操作系统:系统调用(System Calls)
  • 深入理解程序链接机制:静态链接、ELF加载与动态库实现原理
  • 计算机底层入门 05 汇编学习环境通用寄存器内存
  • [LLM]Synthetic Visual Genome
  • gflags使用
  • 【锁】MySQL中有哪几种锁?
  • 【C语言进阶】动态内存管理(1)
  • Claude Code Kimi K2 环境配置指南 (Windows/macOS/Ubuntu)
  • NumPy库使用教学,简单详细。
  • 一些Avalonia与WPF内容的对应关系和不同用法
  • numpy的详细知识点,简单易懂
  • 【Linux系统】基础IO
  • HTTP 协议常见字段(请求头/响应头)
  • 【初识数据结构】CS61B 中的堆以及堆排序算法
  • 数据库设计mysql篇