当前位置: 首页 > news >正文

optuna用于pytorch的轻量级调参场景和grid search的自定义设计

文章目录

  • 0. 背景:why optuna
    • 0.1 插播一个简单的grid search
    • 0.2 参考
  • 1. Optuna
    • 1.1 a basic demo与部分参数释义
    • 1.2 random的问题
    • 1.3 Objective方法类
  • 2. Optuna与grid search
  • 4. optuna的剪枝prune
  • 5. optuna与可视化
  • 6. 未完待续

0. 背景:why optuna

  1. 小模型+参数量少+单卡跑不需要服务器,尝试了一下ray tune不是很适合。。而且很难用。。

  2. 再三尝试后,决定使用optuna,选择的原因:

    • 我这个是小模型,希望调参工具不要太复杂,最好能具有良好的可视化功能
    • 和ray tune一样,使用起来都只需要“几行代码”的包装,但是一定要比ray tune操心更少的参数就可以完成任务,或许大模型/分布式更适合ray tune?
    • 官方文档新手友好,demo很多(optuna任何一个demo都非常言简意赅)
    • 我这里调参以grid search 为主,但是也想尝试一下非grid search的东西
  3. 我本来是调参的。。结果却调了很多调参的工具老半天,所以分享一些零碎的经验和踩过的坑,查看本文之前最好已经对optuna(或者其他调参工具)的使用方式有一个基本的了解喔,不要太指望这个写的很碎的教程能帮你从0起步…

0.1 插播一个简单的grid search

  1. 有一个知乎上的非常简单的grid search的代码,也贴一下,但是这个太简单了,也满足不了我的需求,找不到网址了。代码和荣誉属于这位朋友
# trainable params
parameters = dict(lr=[.01,.001],batch_size = [100,1000],shuffle = [True,False])
#创建可传递给product函数的可迭代列表
param_values = [v for v in parameters.values()]
#把各个列表进行组合,得到一系列组合的参数
#*号是告诉乘积函数把列表中每个值作为参数,而不是把列表本身当做参数来对待
for lr,batch_size,shuffle in product(*param_values):comment  = f'batch_size={batch_size}lr={lr}shuffle={shuffle}'#这里写你调陈的主程序即可print(comment)

0.2 参考

  1. 一些文档很值得参考,首先是官方文档
    • 所有函数的demo都非常简单而且说人话。。对于新手非常友好
  2. 结合李宏毅老师的demo设计了一个使用方法,对我帮助很大,也建议新手参考一下
  3. optuna可视化的参考:
    • 文档有点长,不过还可以
    • 官方文档

1. Optuna

1.1 a basic demo与部分参数释义

  1. optimize函数与suggest_float的一个demo
import optuna
def objective(trial):x = trial.suggest_float("x", 0, 10)return x**2
study = optuna.create_study()
study.optimize(objective, n_trials=3,show_progress_bar=True)
  • optimize参数:

    • objective: objecticve函数,就是包装一下training的过程,具体参考其他文档
    • n_trials: objecticve函数执行的次数,每次执行都会抽取一个x,抽取规则是suggest_float
    • show_progress_bar:多输出一点tuning的进展信息,默认是False,其实设置为True也不会有什么有价值的信息,就像tqdm一样会告诉你现在进行到第几个,还剩几个。
  • suggest_float函数

  • 官方文档,值得参考:

  • 含义:从0和10中抽取一个float数返回给x,当然如果想返回一个int,使用suggest_int

1.2 random的问题

  1. 因为我有一个小小的诉求是,不要每次都重新抽取新的training data组成data loader,我希望 “固定住”training data"的split方式 ,然后观察一些参数的影响。重点在于:
    • 已知optimize会执行objective函数n_trials次,按照官方的写法,是不是每次执行都会重新抽取执行各种random程序:
      • 经过实验,是的
    • 如何设计使得固定住training data?
      • 我的方法是:重写objective function,写成Objective class,因此 objective = Objective(params)
      • 重写之后,一个是可以传递任意的参数给objective函数(不然只能传一个trial),二是self.attr的值是不会变的

1.3 Objective方法类

  1. 参考官方文档
  2. 当重写之后,可以给objective函数传入自己需要的参数,并且self.attr的值是不会变的,刚好解决了我需要的一切问题
  3. 根据官方重写的demo:
import optuna
import numpy as np
class Objective:def __init__(self, min_x, max_x):# Hold this implementation specific arguments as the fields of the class.self.min_x = min_xself.max_x = max_x# 注意这里的值不会变喔self.test_randn = np.random.randn(7)# 这个trial是必须的(也是唯一的?)def __call__(self, trial):# Calculate an objective value by using the extra arguments.x = trial.suggest_float("x", self.min_x, self.max_x)print(self.test_randn)return (x - 2) ** 2# Execute an optimization by using an `Objective` instance.
# 调用100次Objective function,self.test_randn是不会变的
study = optuna.create_study()
study.optimize(Objective(-100, 100), n_trials=100)
  1. 我的Objective class 大概这样:
class Objective:# 传递dataset以及opt,后者是一个dict,存放了各种不需要tune的参数def __init__(self, dataset, opt):# Hold this implementation specific arguments as the fields of the class.self.dataset = datasetself.opt = opt# Hold the data split!!self.shuffled_indices = save_data_idx(dataset,opt)def __call__(self, trial):# Calculate an objective value by using the extra arguments.# 需要tune的参数config = {'learning_rate': trial.suggest_categorical('learning_rate', [5e-2, 1e-2, 5e-3]),'lr_for_pi': trial.suggest_categorical('lr_for_pi', [1e-2, 5e-2, 1e-3])}print("idx check: ",self.shuffled_indices[0:5])# 每次split出来的data都是一致的train_loader, val_loader, test_loader = get_data_loader(self.dataset, self.shuffled_indices, self.opt)model = MLP(self.opt.N_gaussians).to(device) performance = trainer(train_loader, val_loader, model, config, self.opt, device)return performance

2. Optuna与grid search

  1. 为了做到网格搜索grid search,做了一些必要的修改,其实感觉还是有点笨重
  2. 修改1: 假设我们这里需要调2个参数,请把他们都设置成trial.suggest_categorical,而不是什么int或者float,后面的list存放你想尝试的几个数据,比如[5e-2, 1e-2, 5e-3]就是我想尝试的3个数据
        config = {'learning_rate': trial.suggest_categorical('learning_rate', [5e-2, 1e-2, 5e-3]),'lr_for_pi': trial.suggest_categorical('lr_for_pi', [1e-2, 5e-2, 1e-3])}
  1. 修改2: 在实例化一个study时,加上参数sampler,并且选取GridSampler
# 里面所有的组合被cover之后会自动stop
sampler = optuna.samplers.GridSampler(search_space={'learning_rate': [5e-2, 1e-2, 5e-3],	# 注意这里和config里保持一致'lr_for_pi': [1e-2, 5e-2, 1e-3]			# 注意这里和config里保持一致})
study = optuna.create_study(study_name=study_name,direction='minimize',storage=storage_name,load_if_exists=True,sampler=sampler,pruner=pruner)
study.optimize(Objective(dataset), n_trials=100,show_progress_bar=True)
  • 注意sampler 里面的搜索空间search_space和上面的config保持一致
  • GridSampler的官方文档非常值得一读:
  1. 上述修改的作用:
    • 即便n_trials==100,只要搜索完了搜索空间search_space里的全部组合,就会自动停止,比如这里只需要搜索9个参数组合,那么执行9次之后就会自动停止
    • config不是suggest_categorical,也可以进行网格搜索,那么依然会等cover全部组合之后自动停止,因此这个时候的试探次可能不止9次

4. optuna的剪枝prune

  1. optuna有一个默认的剪枝算法,这个剪枝比ray tune默认的早停算法要好多了。。ray tune默认的方法很难调。
  2. optuna默认的剪枝是optuna.pruners.MedianPruner,这个的剪枝策略不一定最好但是足够通用,具体可以参考官方文档,
  3. 但是并不是每一次都需要剪枝,不需要剪枝就使用optuna.pruners.NopPruner()
pruner = optuna.pruners.NopPruner()
study = optuna.create_study(study_name=study_name,direction='minimize',storage=storage_name,load_if_exists=True,sampler=sampler,pruner=pruner)

5. optuna与可视化

  1. 这个是为什么我选择optuna的主要原因之一,可视化流程请见相关的官方文档(见0.2 参考),非常轻松加愉快的就执行完毕了。
  2. 执行的时候注意:
    • 生成的数据库文件(应该可以这么叫?)的根目录在哪里,就在哪里执行命令打开dashboard
    • 实例化study时,参数study_name指定了数据库文件的名字,如果不指定会默认生成一个,但是注意这个名字的命名规则不允许有空格喔
      optuna.create_study(study_name=study_name,direction='minimize',storage=storage_name,load_if_exists=True,sampler=sampler,pruner=pruner)

6. 未完待续

日后希望项目结束可以放上全部代码。希望大家也能留下自己的optuna使用经验

http://www.lryc.cn/news/28495.html

相关文章:

  • 语法篇--汇编语言先导浅尝
  • 【ID:17】【20分】A. DS顺序表--类实现
  • 【java web篇】Tomcat的基本使用
  • MySQL实战解析底层---行锁功过:怎么减少行锁对性能的影响
  • 初识STM32单片机
  • 数据结构与算法系列之单链表
  • MySQL基础
  • 面试热点题:环形链表及环形链表寻找环入口结点问题
  • 【算法】DFS与BFS
  • 湖州银行冲刺A股上市:计划募资约24亿元,资产质量水平较高
  • 高性能网络I/O框架-netmap源码分析
  • SpringBoot监听机制-以及使用
  • 若依学习——定时任务代码逻辑 详细梳理(springboot整合Quartz)
  • C++---最长上升子序列模型---拦截导弹(每日一道算法2023.3.4)
  • 【机器学习面试】百面机器学习笔记和问题总结+扩展面试题
  • 【2021.12.28】ctf逆向中的迷宫问题(含exe及wp)
  • WSL2使用Nvidia-Docker实现深度学习环境自由部署
  • SpringBoot入门 - 配置热部署devtools工具
  • CANFDNET-200U-UDP配置与数据收发控制
  • 嵌入式中backtrace的使用
  • CV学习笔记-Faster-RCNN
  • 大型三甲医院云HIS系统源码 强大的电子病历+完整文档
  • 如何使用Spring Cloud搭建高可用的Elasticsearch集群?详解Elasticsearch的安装与配置及Spring Boot集成的实现
  • phpinfo包含临时文件Getshell全过程及源码
  • ubuntu22.04 Desktop 服务器安装
  • Halcon——关于halcon中的一些语法
  • Java 循环语句
  • Python 基础语法
  • Kubernetes:通过 kubectl 插件 ketall 查看所有APi对象资源
  • Zookeeper3.5.7版本——选举机制(非第一次启动)