初始PyTorch(四):均方差&交叉熵

1、均方差Mean Squared Errorpython   torch.norm(y-pred, 2).pow(2) 2、交叉熵Cross Entropy优化 信息熵:,越大越稳定。编码 交叉熵:,。 其中KL散度表明了两个分布的,重合度越高,KL散度值越低,彻底重合KL散度为0。 若是P=Q时,H(p,q) = H(p), 对于one-hot编码,若使模型预测的Pθ(p,q)接近真实值Pr(
相关文章
相关标签/搜索