Tuner
类keras_tuner.Tuner(
oracle,
hypermodel=None,
max_model_size=None,
optimizer=None,
loss=None,
metrics=None,
distribution_strategy=None,
directory=None,
project_name=None,
logger=None,
tuner_id=None,
overwrite=False,
executions_per_trial=1,
**kwargs
)
用于 Keras 模型的 Tuner 类。
这是所有 Keras 模型调优器的基础 Tuner
类。它管理 Keras 模型的构建、训练、评估和保存。可以通过子类化该类来创建新的调优器。
所有 Keras 相关逻辑都在 Tuner.run_trial()
及其子例程中。当子类化 Tuner
时,如果不调用 super().run_trial()
,则可以调优任何内容。
参数
Oracle
类的实例。HyperModel
类的实例(或接受超参数并返回 Model
实例的可调用对象)。当 Tuner.run_trial()
被重写并且不使用 self.hypermodel
时,它是可选的。compile
步骤中的 optimizer
参数。如果超模型不编译它生成的模型,则必须指定此参数。compile
步骤中的 loss
参数。如果超模型不编译它生成的模型,则必须指定此参数。compile
步骤中的 metrics
参数。如果超模型不编译它生成的模型,则必须指定此参数。tf.distribute.Strategy
的可选实例。如果指定,则每个试验都将在此范围下运行。例如,tf.distribute.MirroredStrategy(['/gpu:0', '/gpu:1'])
将在两个 GPU 上运行每个试验。目前仅支持单工作者策略。Tuner
保存的文件的前缀名称。Tuner
的 ID。False
。如果为 False
,则重新加载同名的现有项目(如果找到)。否则,覆盖该项目。BaseTuner
的参数。属性
max_trials
,则为 None
。这在恢复先前停止的搜索时很有用。get_best_hyperparameters
方法Tuner.get_best_hyperparameters(num_trials=1)
返回由目标确定的最佳超参数。
此方法可用于重新实例化在搜索过程中找到的(未训练)最佳模型。
示例
best_hp = tuner.get_best_hyperparameters()[0]
model = tuner.hypermodel.build(best_hp)
参数
HyperParameters
对象数。返回
从最佳到最差排序的 HyperParameter
对象列表。
get_best_models
方法Tuner.get_best_models(num_models=1)
返回由调优器目标确定的最佳模型。
加载模型的权重对应于其最佳检查点(在最佳试验的最佳 epoch 结束时)。
此方法用于查询在搜索期间训练的模型。为了获得最佳性能,建议使用在 search
期间找到的最佳超参数,在完整数据集上重新训练模型,可以使用 tuner.get_best_hyperparameters()
获取这些超参数。
参数
返回
从最佳到最差排序的训练模型实例列表。
get_state
方法Tuner.get_state()
返回此对象的当前状态。
此方法在 save
期间调用。
返回
作为状态的可序列化对象的字典。
load_model
方法Tuner.load_model(trial)
从给定的试验加载模型。
对于将中间结果报告给 Oracle
的模型,通常 load_model
应该通过依赖 trial.best_step
加载最佳报告的 step
。
参数
Trial
实例,与要加载的模型对应的 Trial
。on_epoch_begin
方法Tuner.on_epoch_begin(trial, model, epoch, logs=None)
在一个 epoch 开始时调用。
参数
Trial
实例。Model
。on_batch_begin
方法Tuner.on_batch_begin(trial, model, batch, logs)
在一个批次开始时调用。
参数
Trial
实例。Model
。on_batch_end
方法Tuner.on_batch_end(trial, model, batch, logs=None)
在一个批次结束时调用。
参数
Trial
实例。Model
。on_epoch_end
方法Tuner.on_epoch_end(trial, model, epoch, logs=None)
在一个 epoch 结束时调用。
参数
Trial
实例。Model
。run_trial
方法Tuner.run_trial(trial, )
评估一组超参数值。
此方法在 search
期间多次调用,以构建和评估具有不同超参数的模型,并返回目标值。
示例
你可以使用它和 self.hypermodel
来构建和拟合模型。
def run_trial(self, trial, *args, **kwargs):
hp = trial.hyperparameters
model = self.hypermodel.build(hp)
return self.hypermodel.fit(hp, model, *args, **kwargs)
你也可以将其用作任何内容的黑盒优化器。
def run_trial(self, trial, *args, **kwargs):
hp = trial.hyperparameters
x = hp.Float("x", -2.0, 2.0)
y = x * x + 2 * x + 1
return y
参数
Trial
实例,包含运行此试验所需的信息。可以通过 trial.hyperparameters
访问超参数。search
传递的位置参数。search
传递的关键字参数。返回
History
对象,它是 model.fit()
的返回值,一个字典,一个浮点数或其中一种类型的列表。
如果返回字典,则它应该是要跟踪的指标的字典。键是指标名称,其中包含 objective
名称。值应该是指标值。
如果返回浮点数,则它应该是 objective
值。
如果多次评估模型,则可以返回上面任意类型的结果列表。最终目标值是列表中结果的平均值。
results_summary
方法Tuner.results_summary(num_trials=10)
显示调优结果摘要。
该方法打印搜索结果的摘要,包括每个试验的超参数值和评估结果。
参数
save_model
方法Tuner.save_model(trial_id, model, step=0)
为给定的试验保存模型。
参数
Trial
的 ID。Oracle
的模型,保存的文件对应的步骤。例如,对于 Keras 模型,这是训练的 epoch 数。search
方法Tuner.search(*fit_args, **fit_kwargs)
执行搜索以查找最佳超参数配置。
参数
run_trial
的位置参数,例如训练和验证数据。run_trial
的关键字参数,例如训练和验证数据。search_space_summary
方法Tuner.search_space_summary(extended=False)
打印搜索空间摘要。
该方法打印搜索空间中超参数的摘要,可以在调用 search
方法之前调用。
参数
set_state
方法Tuner.set_state(state)
设置此对象的当前状态。
此方法在 reload
期间调用。
参数