李宏毅:Tuning Hyperparameters(超参数)

1、grid search vs random search 有时候random search的方法还是不错的,因为top k的结果已经相差不大。所以没有必要扫过所有的参数组合,只要取前k名的其中一个结果就好了。 有sample到K的几率: 2、model-based hyperparameter optimization 不一定好用 3、reinforcement learning(强化学习)
相关文章
相关标签/搜索