KL Divergence又稱為相對熵(relative entropy),通常是用來度量兩個機率分布(P ... 會滿足對稱性,直接將兩個分布的距離計算平均就好了,因此JS Divergence的定義為.
確定! 回上一頁