tensorflow中的交叉熵损失
生活随笔
收集整理的這篇文章主要介紹了
tensorflow中的交叉熵损失
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
tf.nn.softmax_cross_entropy_with_logits傳入的 labels是one-hot編碼,logits需未使用softmax,
tf.nn.softmax_cross_entropy_with_logits對傳入的logits先計算softmax激活后的輸出,再計算與 labels間的交叉熵
輸出
tf_softmax:[0.06588391 0.40760595 0.40760595] cross_entropy2:0.88109577tf.reduce_xxx系列在指定維度上對矩陣操作
總結
以上是生活随笔為你收集整理的tensorflow中的交叉熵损失的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 机器学习中矩阵向量求导
- 下一篇: tensorflow基本概念