当前位置: 首页 > news >正文

Speech and Language Processing-之N-gram语言模型

       正如一句老话所说,预测是困难的,尤其是预测未来。但是,如何预测一些看起来容易得多的事情,比如某人接下来要说的几句话后面可能跟着哪个单词。
 

        希望你们大多数人都能总结出一个很可能的词是in,或者可能是over,但可能不是fridge或the。在下面的部分中,我们将通过引入为每个可能的下一个单词分配概率的模型来形式化这种直觉。同样的模型也将用于为整个句子分配概率。例如,这样的模型可以预测以下序列在文本中出现的概率要高得多。

 什么是N-gram 呢?下面咱们直接开始讲例子:

        上面的一个问题如何解决呢,其中最简单的一种办法就是使用频率计算,在我们看到历史h句子中,有多少次它后面跟着单词w。也就是说,你有大量的语料,然后你找出所有的句子h,然后你再找出h后面跟着the的句子,此时,后面的句子数目除以前面的句子数目,就是概率p(w|h)。有了足够大的语料库,比如web,我们可以计算这些计数,并从前面公式中估计概率。虽然这种直接从计数中估计概率的方法在很多情况下都很有效,但事实证明,在大多数情况下,即使是网络也不够大,无法给我们很好的估计。这是因为语言是创造性的;新的句子一直在被创造出来,我们并不总是能够计算出整个句子。

       类似地,如果我们想知道整个单词序列的联合概率,比如它的水是如此透明,我们可以问“out of all possible sequences of five words, how many of them are its water is so transparent?”我们必须得到它的水是如此透明的计数,然后除以所有可能的五个单词序列的计数之和。估计起来似乎太多了!

 如上,这段写的非常经典,就不翻译了,自己看英文,写的非常凝练,其实就是记号的写法还有计算公式。

       这段依旧写的很经典,就是说,之前我为了判断h后面the的概率,我需要把h里面所有的概率累加起来,这样的话计算量太大,为了避免这个问题,直接把h前面的头去掉,用that代替h,也就是1-gram。 

上面的技术讲的有些理论,下面上几个例子和代码:

当我们处理文本数据时,n-gram是一种常见的技术,它可以将文本切分成连续的n个词或字符序列,并对这些序列进行分析。例如,在一个句子中提取所有的2-gram(或bigram):

原始文本:I love natural language processing. 提取2-gram:[(I,love), (love,natural), (natural,language), (language,processing)]

在python中,我们可以使用NLTK库来实现ngram的计算。以下是一个简单的代码示例,使用unigram、bigram和trigram从给定的文本中提取ngram:

import nltktext = "I love natural language processing."# 将文本转换为tokens
tokens = nltk.word_tokenize(text)# 创建unigrams
unigrams = list(nltk.ngrams(tokens, 1))
print("Unigrams:", unigrams)# 创建bigrams
bigrams = list(nltk.ngrams(tokens, 2))
print("Bigrams:", bigrams)# 创建trigrams
trigrams = list(nltk.ngrams(tokens, 3))
print("Trigrams:", trigrams)

 

来一个概率计算的例子:

import nltktext = "I love natural language processing."# 将文本转换为tokens
tokens = nltk.word_tokenize(text)# 创建bigrams
bigrams = list(nltk.ngrams(tokens, 2))
print("Bigrams:", bigrams)# 建立词汇表
vocab = set(tokens)# 统计每个bigram的出现次数
freq_dist = nltk.FreqDist(bigrams)# 计算概率(使用最大似然估计)
for bg in bigrams:prob = freq_dist[bg] / freq_dist[bg[0]]print("P({}|{}) = {}".format(bg[1], bg[0], prob))

 

 

http://www.lryc.cn/news/63253.html

相关文章:

  • 【AI】Python 安装时启用长路径支持
  • 深入理解Go语言中的接口编程【17】
  • “数字中国·福启海丝”多屏互动光影艺术秀27日在福州举办
  • Docker安装mysql8.0文档
  • 在函数中使用变量
  • python算法中的深度学习算法之自编码器(详解)
  • Python入门(一)Python概述与环境搭建
  • 02_Lock锁
  • 面试总结,4年经验
  • 享受简单上传体验:将Maven仓库迁移到GitHub
  • R语言 | 进阶字符串的处理
  • 【MySQL高级】——InnoDB索引MyISAM索引
  • 电影《灌篮高手》观后
  • C# .Net 中的同步上下文
  • 3分钟入门:Flex 布局
  • 我想知道,就目前形势而言,学java好还是C++好?
  • Mysql 管理
  • C#基础(算术运算符)
  • BM43-包含min函数的栈
  • [学习笔记] [机器学习] 3. KNN( K-近邻算法)及练习案例
  • React Hooks 钩子函数错误用法,你还在犯这些错误吗
  • tpm2-tools源码分析之tpm2_evictcontrol.c(1)
  • SpringCloud_OpenFeign服务调用和Resilience4J断路器
  • 【C++】switch 语句
  • 【Database-06】Centos 9 安装docker版的Oceanbase
  • TiDB Operator 和 Operator Dashboard
  • 计算机网络闲谈01——QUIC协议
  • 楼层滚动效果(超级简单,易懂)
  • FPGA、 CPU、GPU、ASIC区别
  • ChatGPT 之父承认 GPT-5 并不存在,为什么 OpenAI 总是这么实诚?|万字详述