当前位置: 首页 > news >正文

昇思学习打卡-5-基于Mindspore实现BERT对话情绪识别

本章节学习一个基本实践–基于Mindspore实现BERT对话情绪识别

自然语言处理任务的应用很广泛,如预训练语言模型例如问答、自然语言推理、命名实体识别与文本分类、搜索引擎优化、机器翻译、语音识别与合成、情感分析、聊天机器人与虚拟助手、文本摘要与生成、信息抽取与知识图谱、个性化推荐等等很多方面。

BERT模型是比较基础的典型的语言模型,创新点都在pre-train方法上,即用了Masked Language Model和Next Sentence Prediction两种方法分别捕捉词语和句子级别的representation。
1、在用Masked Language Model方法训练BERT的时候,随机把语料库中15%的单词做Mask操作。
2、对于这15%的单词做Mask操作分为三种情况:80%的单词直接用[Mask]替换、10%的单词直接替换成另一个新的单词、10%的单词保持不变。

Next Sentence Prediction:训练的输入是句子A和B,B有一半的几率是A的下一句,输入这两个句子,BERT模型预测B是不是A的下一句。因为涉及到Question Answering (QA) 和 Natural Language Inference (NLI)之类的任务,增加了Next Sentence Prediction预训练任务,目的是让模型理解两个句子之间的联系。

对话情绪识别(Emotion Detection,简称EmoTect):识别智能对话场景中用户的情绪。针对智能对话场景中的用户文本,自动判断该文本的情绪类别并给出相应的置信度,情绪类型分为积极、消极、中性。 对话情绪识别适用于聊天、客服等多个场景,能够帮助企业更好地把握对话质量、改善产品的用户交互体验,也能分析客服服务质量、降低人工质检成本。
安装mindnlp库并查看相关信息
在这里插入图片描述
训练完测试了2个,感觉第二个好像不太对,可能有些词看语境和语调吧,模型只能看表象
在这里插入图片描述
此章节学习到此结束,感谢昇思平台。

http://www.lryc.cn/news/394125.html

相关文章:

  • Java中 普通for循环, 增强for循环( foreach) List中增删改查的注意事项
  • 昇思25天学习打卡营第19天|LSTM+CRF序列标注
  • 微服务: 初识 Spring Cloud
  • 探索InitializingBean:Spring框架中的隐藏宝藏
  • JVM专题之垃圾收集算法
  • 2024年6月后2周重要的大语言模型论文总结:LLM进展、微调、推理和对齐
  • 大数据面试题之数仓(1)
  • [机器学习]-4 Transformer介绍和ChatGPT本质
  • 基于深度学习的电力分配
  • 飞书 API 2-4:如何使用 API 将数据写入数据表
  • 系统设计题-日活月活统计
  • 在CentOS7云服务器下搭建MySQL网络服务详细教程
  • 【数据结构与算法】快速排序霍尔版
  • 无人机5公里WiFi低延迟图传模组,抗干扰、长距离、低延迟,飞睿智能无线通信新标杆
  • Kappa架构
  • 护网在即,助力安服仔漏洞扫描~
  • 3C电子制造行业MES系统,提高企业生产效率
  • C++ 多态和虚函数
  • 七月记录上半
  • Wing FTP Server
  • 【Linux进阶】文件系统6——理解文件操作
  • Python编译器的选择
  • Java | Leetcode Java题解之第217题存在重复元素
  • python基础语法 006 内置函数
  • ABAP中BAPI_CURRENCY_CONV_TO_EXTERNAL函数详细的使用方法
  • Mac本地部署大模型-单机运行
  • Qt:8.QWidget属性介绍(focuspolicy属性-控件焦点、stylesheet属性-为控件设置样式)
  • R可视化数据必要格式——长格式
  • Android计算器界面的设计——表格布局TableLayout实操
  • 【数据结构】经典链表题目详解集合(反转链表、相交链表、链表的中间节点、回文链表)