当前位置: 首页 > news >正文

LGB的两种写法

方法一

import lightgbm as lgb
import pandas as pd
from sklearn.model_selection import train_test_split, KFold
from sklearn.metrics import accuracy_score# 读取训练集和测试集数据
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')# 分割特征和标签
X_train = train_data.drop('label', axis=1)
y_train = train_data['label']# 创建 LightGBM 数据集
train_dataset = lgb.Dataset(X_train, label=y_train)# 设置模型参数
params = {'boosting_type': 'gbdt','objective': 'binary','metric': 'binary_logloss','num_leaves': 31,'learning_rate': 0.05
}# 定义 k-fold 交叉验证
kfold = KFold(n_splits=5, shuffle=True, random_state=42)# 用于存储每个 fold 的预测结果
test_predictions = []# 进行 k-fold 交叉验证
for train_index, val_index in kfold.split(X_train):# 划分训练集和验证集X_train_fold, X_val_fold = X_train.iloc[train_index], X_train.iloc[val_index]y_train_fold, y_val_fold = y_train.iloc[train_index], y_train.iloc[val_index]# 创建当前 fold 的 LightGBM 数据集train_fold_dataset = lgb.Dataset(X_train_fold, label=y_train_fold)val_fold_dataset = lgb.Dataset(X_val_fold, label=y_val_fold)# 训练模型model = lgb.train(params, train_fold_dataset, num_boost_round=100, valid_sets=[val_fold_dataset], early_stopping_rounds=10, verbose_eval=10)# 在验证集上进行预测val_predictions = model.predict(X_val_fold, num_iteration=model.best_iteration)# 将当前 fold 的预测结果加入列表test_predictions.append(val_predictions)# 计算 k-fold 预测结果的平均值
final_predictions = sum(test_predictions) / len(test_predictions)# 二分类问题的阈值处理
final_predictions = (final_predictions > 0.5).astype(int)# 在测试集上进行预测
X_test = test_data  # 假设测试集特征和训练集格式相同
y_test_predictions = model.predict(X_test, num_iteration=model.best_iteration)# 二分类问题的阈值处理
y_test_predictions = (y_test_predictions > 0.5).astype(int)# 输出测试集预测结果
print(y_test_predictions)

方法二

import lightgbm as lgb
import pandas as pd
from sklearn.model_selection import KFold
from sklearn.metrics import accuracy_score# 读取训练集和测试集数据
train_data = pd.read_csv('train.csv')
test_data = pd.read_csv('test.csv')# 分割特征和标签
X_train = train_data.drop('label', axis=1)
y_train = train_data['label']# 定义模型参数
params = {'boosting_type': 'gbdt','objective': 'binary','metric': 'binary_logloss','num_leaves': 31,'learning_rate': 0.05
}# 定义 k-fold 交叉验证
kfold = KFold(n_splits=5, shuffle=True, random_state=42)# 用于存储每个 fold 的预测结果
test_predictions = []# 进行 k-fold 交叉验证
for train_index, val_index in kfold.split(X_train):# 划分训练集和验证集X_train_fold, X_val_fold = X_train.iloc[train_index], X_train.iloc[val_index]y_train_fold, y_val_fold = y_train.iloc[train_index], y_train.iloc[val_index]# 创建 LightGBM 模型model = lgb.LGBMClassifier(**params)# 训练模型model.fit(X_train_fold, y_train_fold)# 在验证集上进行预测val_predictions = model.predict(X_val_fold)# 将当前 fold 的预测结果加入列表test_predictions.append(val_predictions)# 计算 k-fold 预测结果的平均值
final_predictions = sum(test_predictions) / len(test_predictions)# 二分类问题的阈值处理
final_predictions = (final_predictions > 0.5).astype(int)# 在测试集上进行预测
X_test = test_data  # 假设测试集特征和训练集格式相同
y_test_predictions = model.predict(X_test)# 二分类问题的阈值处理
y_test_predictions = (y_test_predictions > 0.5).astype(int)# 输出测试集预测结果
print(y_test_predictions)
http://www.lryc.cn/news/162294.html

相关文章:

  • 【Unity的HDRP下ShaderGraph实现权重缩放全息投影_(内附源码)】
  • 透视俄乌网络战之二:Conti勒索软件集团(上)
  • 【华为OD机试python】拔河比赛【2023 B卷|100分】
  • 05 CNN 猴子类别检测
  • 【C#】关于Array.Copy 和 GC
  • Vue前端框架08 Vue框架简介、VueAPI风格、模板语法、事件处理、数组变化侦测
  • WebStorm使用PlantUML
  • Python做批处理,给安卓设备安装应用和传输图片
  • 如何获取springboot中所有的bean
  • 大数据技术之Hadoop:HDFS存储原理篇(五)
  • 用C语言实现牛顿摆控制台动画
  • 如何自己开发一个前端监控SDK
  • node.js笔记
  • mysql 增量备份与恢复使用详解
  • 9月5日上课内容 第一章 NoSQL之Redis配置与优化
  • QT 第四天
  • nrf52832 GPIO输入输出设置
  • MyBatis 动态 SQL 实践教程
  • CSS 斜条纹进度条
  • JavaScript(1)每天10个小知识点
  • scanf和scanf_s函数详解
  • 基于SSM的在线购物系统
  • 认识JVM的内存模型
  • Java8实战-总结19
  • 论文浅尝 | 训练语言模型遵循人类反馈的指令
  • 【云计算网络安全】解析DDoS攻击:工作原理、识别和防御策略 | 文末送书
  • 64位Linux系统上安装64位Oracle10gR2及Oracle11g所需的依赖包
  • Unity InputSystem 基础使用之鼠标交互
  • 《算法竞赛·快冲300题》每日一题:“二进制数独”
  • CnosDB 签约京清能源,助力分布式光伏发电解决监测系统难题。