熵(entropy)、KL 散度(Kullback-Leibler (KL) divergence)和交叉熵(cross-entropy)在機器學習的很多地方會用到。 比如在決策樹模型使用資訊增益來選擇一個最佳的 ...
確定! 回上一頁