当前位置: 首页 > news >正文

【深度学习】手把手教你开发自己的深度学习模板

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 前言
  • 1数据相关
    • 1.1 数据初探
    • 1.2.数据处理
    • 1.3 数据变形
    • 2 定义网络,优化函数
  • 3. 训练


前言

入坑2年后,重新梳理之前的知识,发现其实需要一个自己的深度学习的模板pipeline。他需要:

  1. 数据集切分
  2. dataset的功能
  3. dataloader的功能
  4. train的过程中print 每个epoch的训练集 测试集的准确率,loss
    在这个过程中,我会从自我实现的角度一步步进化,已经说明为什么需要这样做。
    用一个多层感知机为因子搭建一个pipeline

读取数据和处理异常数据用pandas
训练用torch 的tensor是一个好习惯。
计算用numpy

1数据相关

1.1 数据初探

根据15个特征预测员工是否会离职的问题, 很明显是个分类问题,输出是否会离职的概率做分类。


data = pd.read_csv("dataset/HR.csv")
data.head()

在这里插入图片描述
在这里插入图片描述
看一下都有哪些职位:

data.salary.unique()
array(['sales', 'accounting', 'hr', 'technical', 'support', 'management','IT', 'product_mng', 'marketing', 'RandD'], dtype=object)

工资等级:

data.salary.unique()
array(['low', 'medium', 'high'], dtype=object)

pandas 的group by 功能用一下:按工资和部门分组查询。

data.groupby(["salary","part"]).size()

在这里插入图片描述

1.2.数据处理

需要把工资的等级:high low ,…
部门分类:销售 技术 财务 …
转成onehot编码

pd.get_dummies(data.salary)
data = data.join(pd.get_dummies(data.salary))
del data["salary"]
data = data.join(pd.get_dummies(data.part))
del data["part"]
data.left.value_counts()

在这里插入图片描述
问题1:所以为啥需要做One-hot编码?
对于属性是不具备序列性、不能比较大小的属性,通常我们不能用简单的数值来粗暴替换。因为属性的数值大小会影响到权重矩阵的计算,不存在大小关系的属性,其权重也不应该发生相应的变化,那么我们就需要用到One-hot编码(也有人称独热编码)这种特殊的编码方式了。
来看一个简单的例子:假设我们有一个特征是自有房和无自有房,样本情况如下:

 data = [['自有房',40,50000],['无自有房',22,13000],['自有房',30,30000]]

编码后的样本矩阵变为:

 data = [[1,0,40,50000],[0,1,22,13000],[1,0,30,30000]]

问题2:One-hot编码适用算法,(但是我们这个算法就是逻辑回归在使用的,这块存疑吧)
有大神说,现在的经验,one-hot用在GBDT、XGBoost这些模型里面都挺好的,但是用在逻辑回归里不行。因为逻辑回归要求变量间相互独立,如果你只有一个属性需要做one-hot编码还好,如果你有多个属性需要做one-ont编码,那么当某个样本的多个one-hot属性同时为1时,这两个属性就完全相关了,必然会导致singular error,也就是非奇异矩阵不能求解唯一解,得不出唯一的模型,但是你又不可能把同一个属性的某一个one-hot延伸变量删除。

如果在逻辑回归中入模标称属性,可以直接替换成数值,然后做woe变换,用每个类别的woe值来代替原来的数值,这样既能够避免生成相关性强的变量,又能避开类别间大小无法比较的问题。

1.3 数据变形

构建X_data 和 Y_data
转成torch.tensor 并同意数据到torch.float32
在这里插入图片描述

2 定义网络,优化函数

因为是二分类问题,所以最终需要将线性计算结果,拟合到0,1之间,用sigmoid函数。
因为20个特征,所以选择20,输出的是0,1之间的概率,就是1个特征
二元交叉熵,二分类 当然用二元交叉熵
loss_fn = nn.BCELoss()

class Model(nn.Module):def __init__(self):super().__init__()self.liner_1 = nn.Linear(20, 64)self.liner_2 = nn.Linear(64, 64)self.liner_3 = nn.Linear(64,1)self.sigmoid = nn.Sigmoid()def forward(self, input):x = self.liner_1(input)x = F.relu(x)x = self.liner_2(x)x = F.relu(x)x = self.liner_3(x)x = self.sigmoid(x)return x

在这里插入图片描述
在这里插入图片描述

3. 训练

这里有个关键问题,with no grad 加在哪来的问题,
我们是为了看每一批次后的训练状态,它的梯度是不需要积累的,所以用 with no grad 包起来

for epoch in range(epochs):for i in range(no_of_batches):start = i * batchend = start + batchx = X[start: end]y = Y[start: end]y_pred = model(x)loss = loss_fn(y_pred, y)# 将model.parameters()optim.zero_grad()loss.backward()optim.step()with torch.no_grad():print("epoch:",epoch,"loss:",loss_fn(model(X),Y).data.item())

在这里插入图片描述

http://www.lryc.cn/news/22278.html

相关文章:

  • 一个诡异的 Pulsar InterruptedException 异常
  • Java岗面试题--Java并发(volatile 专题)
  • Java---打家劫舍ⅠⅡ
  • MySQL Lesson4
  • 浅谈权限获取方法之文件上传
  • 资产设备防拆标签安全防护和资产定位解决方案
  • 企业电子招标采购源码之电子招标投标全流程!
  • 【考研408】计算机网络笔记
  • [C++]继承
  • 优化知识管理方法丨整理零碎信息,提高数据价值
  • Windows操作系统的体系结构、运行环境和运行状态
  • 【工作笔记】Http响应头过长
  • hive建分区表,分桶表,内部表,外部表
  • 【分享】灌溉制度设计小程序VB源代码
  • PR9268/300-000库存现货振动传感器 雄霸工控
  • 浅谈模型评估选择及重要性
  • 多线程的初识和创建
  • 一句话设计模式3:工厂模式
  • 【Codeforces Round #853 (Div. 2)】C. Serval and Toxel‘s Arrays【题解】
  • 100天精通Python(数据可视化篇)——第77天:数据可视化入门基础大全(万字总结+含常用图表动图展示)
  • PMP考前冲刺2.27 | 2023新征程,一举拿证
  • 【C++】map和set的封装(红黑树)
  • 【批处理脚本】-1.14-移动文件(夹)命令move
  • 逻辑地址和物理地址转换
  • HyperGBM用4记组合拳提升AutoML模型泛化能力
  • P6软件中的前锋线设置
  • Spring Boot + Vue3 前后端分离 实战 wiki 知识库系统<二>---后端架构完善与接口开发
  • 如何在logback.xml中自定义动态属性
  • 嵌入式系统硬件设计与实践(第一步下载eda软件)
  • Portraiture4免费磨皮插件支持PS/LR