再依每一層(Keras 稱為Dense)的特性及需求,指定Activation Function,例如第16行,Input Layer至Hidden Layer,我們排除負值,採用『relu』, Hidden Layer 至Output ...
確定! 回上一頁