当前位置: 首页 > news >正文

【模型评估 06】超参数调优

对于很多算法工程师来说,超参数调优是一件非常头疼的事情。除了根据经验设定所谓的“合理值”之外,一般很难找到合理的方法去寻找超参数的最优取值。而与此同时,超参数对于模型效果的影响又至关重要。有没有一些可行的办法去进行超参数的调优呢?

超参数有哪些调优方法?

为了进行超参数调优,我们一般会采用网格搜索、随机搜索、贝叶斯优化等算法。在具体介绍算法之前,需要明确超参数搜索算法一般包括哪几个要素。

  • 一是目标函数,即算法需要最大化/最小化的目标;
  • 二是搜索范围,一般通过上限和下限来确定;
  • 三是算法的其他参数,如搜索步长。

1. 网格搜索

网格搜索可能是最简单、应用最广泛的超参数搜索算法,他通过查找搜索范围内的所有点来确定最优值。如果采用较大的搜索范围以及较小的步长,网格搜索有很大概率找到全局最优值。然而,这种搜索方案十分消耗计算资源和时间,特别是需要调优的超参数比较多的时候。因此,在实际应用中,网格搜索一般会先使用较广的搜索范围和较大的步长,来寻找全局最优值可能的位置;然后会逐渐缩小搜索范围和步长,来寻找更精确的最优值。这种操作方案可以降低所需的时间和计算量,但由于目标函数一般是非凸的,所以很可能会错过全局最优值

2. 随机搜索

随机搜索的思想与网格搜索比较相似,只是不再测试上界和下界之间的所有之,而是在搜索范围中随机选取样本点。它的理论依据是,如果样本点集足够大,那么通过随机采样也能大概率地找到全局最优值或其近似值。随机搜索一般会比网格搜索要快一些,但是和网格搜索的快速版一样。它的结果也是没法保证的。

3. 贝叶斯优化算法

贝叶斯优化算法在寻找最优最值参数时,采用了与网格搜索、随机搜索完全不同的方法。网格搜索和随机搜索在测试一个新点时,会忽略前一个点的信息;而贝叶斯优化算法则充分利用了之前的信息。贝叶斯优化算法通过对目标函数形状进行学习,找到使目标函数向全局最优值提升的参数。具体来说,它学习目标函数形状的方法是

  • 首先根据先验分布,假设一个搜集函数;
  • 然后,每一次使用新的采样点来测试目标函数时,利用这个信息来更新目标函数的先验分布。
  • 最后,算法测试由后验分布给出的全局最值最可能出现的位置的点。

对于贝叶斯优化算法,有一个需要注意的地方,一旦找到了一个局部最优值,它会在该区域不断采样,所以很容易陷入局部最优值。为了弥补这个缺陷,贝叶斯优化算法会在探索和利用之间找到一个平衡点,“探索”就是在还未取样的区域获取采样点;而“利用”则是根据后验分布在最可能出现全局最值的区域进行采样


代码实现

这些算法在Python中通常通过第三方库如scikit-learn、hyperopt和skopt等进行实现。以下是一些基本示例:

1. 网格搜索(Grid Search)使用scikit-learn:

from sklearn.model_selection import GridSearchCV
from sklearn.svm import SVCparam_grid = {'C': [0.1, 1, 10, 100, 1000], 'gamma': [1, 0.1, 0.01, 0.001, 0.0001],'kernel': ['rbf', 'poly', 'sigmoid']}grid = GridSearchCV(SVC(), param_grid, refit=True, verbose=2)
grid.fit(X_train, y_train)# 找到最佳参数
best_params = grid.best_params_

2. 随机搜索(Randomized Search)使用scikit-learn:

from sklearn.model_selection import RandomizedSearchCV
from scipy.stats import uniformparam_dist = {'C': uniform(0.1, 1000),'gamma': uniform(0.0001, 1),'kernel': ['rbf', 'poly', 'sigmoid']}random_search = RandomizedSearchCV(SVC(), param_distributions=param_dist, n_iter=100, cv=5, verbose=2)
random_search.fit(X_train, y_train)# 找到最佳参数
best_params = random_search.best_params_

3. 贝叶斯优化(Bayesian Optimization)使用hyperopt库:

from hyperopt import fmin, tpe, hp, STATUS_OKspace = {'C': hp.loguniform('C', -5, 5),'gamma': hp.loguniform('gamma', -8, 3),'kernel': hp.choice('kernel', ['rbf', 'poly', 'sigmoid'])
}def objective(params):model = SVC(**params)score = cross_val_score(model, X_train, y_train, cv=5).mean()return{'loss': -score, 'status': STATUS_OK}best = fmin(objective, space, algo=tpe.suggest, max_evals=100)# 最佳参数
best_params = dict(best)

请注意,以上代码需要根据你的实际数据集X_train和y_train进行调整,并且假设你正在优化支持向量机(SVC)的参数。在贝叶斯优化中,你需要定义一个目标函数(objective function),这里我们用交叉验证得分作为目标。

http://www.lryc.cn/news/279009.html

相关文章:

  • Matlab 字符识别OCR实验
  • Docker Compose 部署 jenkins
  • QT:使用QStyle实现QMenu的滚动效果
  • 双指针问题——求只包含两个元素的最长连续子序列(子数组)
  • Unity组件开发--短连接HTTP
  • 真正的强大,原来是不动声色的
  • git 查看tag和创建tag以及上传tag命令
  • 代码随想录二刷 |二叉树 | 二叉搜索树的最小绝对差
  • 【Linux】Linux 系统编程——tree 命令
  • Android简单控件
  • 【Java 干货教程】Java实现分页的几种方式详解
  • 关于Python里xlwings库对Excel表格的操作(三十一)
  • QML使用QCustomPlot笔记
  • 【REST2SQL】06 GO 跨包接口重构代码
  • 《NLP入门到精通》栏目导读
  • C++学习笔记——类继承
  • ARCGIS PRO SDK 使用条件管理 Pro UI
  • Halcon经典的边缘检测算子Sobel/Laplace/Canny
  • 用单片机设计PLC电路图
  • 【设计模式-6】建造者模式的实现与框架中的应用
  • PositiveSSL和Sectigo的多域名证书
  • Docker:docker exec命令简介
  • 【大数据进阶第三阶段之Hive学习笔记】Hive的数据类型与数据操作
  • GPT2:Language Models are Unsupervised Multitask Learners
  • 微创新与稳定性的权衡
  • 对回调函数的各种讲解说明
  • Java多线程:创建多线程的三种方式
  • Unity中打印信息的两种方式
  • 给定n个字符串s[1...n], 求有多少个数对(i, j), 满足i < j 且 s[i] + s[j] == s[j] + s[i]?
  • Linux磁盘空间与文件大小查看命令详解