为Pytorch模型执行超参数优化的最佳方法是什么?实现例如随机搜索自己?使用Skicit Learn?或者还有我不知道的其他事情?

最佳答案

许多研究人员使用RayTune。这是一个可扩展的超参数调整框架,专门用于深度学习。您可以在任何深度学习框架(下面的两行代码)中轻松使用它,并且它提供了大多数最新算法,包括HyperBand,基于人口的培训,贝叶斯优化和BOHB。

import torch.optim as optim
from ray import tune
from ray.tune.examples.mnist_pytorch import get_data_loaders, ConvNet, train, test


def train_mnist(config):
    train_loader, test_loader = get_data_loaders()
    model = ConvNet()
    optimizer = optim.SGD(model.parameters(), lr=config["lr"])
    for i in range(10):
        train(model, optimizer, train_loader)
        acc = test(model, test_loader)
        tune.report(mean_accuracy=acc)


analysis = tune.run(
    train_mnist, config={"lr": tune.grid_search([0.001, 0.01, 0.1])})

print("Best config: ", analysis.get_best_config(metric="mean_accuracy"))

# Get a dataframe for analyzing trial results.
df = analysis.dataframe()
[免责声明:我为这个项目做出了积极的贡献!]

关于python - Pytorch模型的超参数优化,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/44260217/

10-10 05:03