HuaWeiCloud_model_arts
一、上傳數據至OBS及授權給ModelArts使用
二、ModelArts-Notebook介紹
三、ModelArts-訓練作業介紹
搬幾個pytorch教程的例子
Before introducing Pytorch, we will first implement the network using numpy.
在介紹 PyTorch 之前, 我們先使用 numpy 實現網絡.
Numpy provides an n-dimensional array object, and many functions for manipulating these arrays. Numpy is a generic framework for scientific computing;it does not know anything about anything about computation graphs,or deep learning, or gradients.However we can easily use numpy to fit a two-layer network to random data by manully implement the forward and backward pass through the network using numpy operations:
Numpy 提供了一個n維的數組對象, 并提供了許多操縱這個數組對象的函數. Numpy 是科學計算的通用框架; Numpy 數組沒有計算圖, 也沒有深度學習, 也沒有梯度下降等方法實現的接口. 但是我們仍然可以很容易地使用 numpy 生成隨機數據 并將產生的數據傳入雙層的神經網絡, 并使用 numpy 來實現這個網絡的正向傳播和反向傳播:
# -*- coding: utf-8 -*-import numpy as np# N 是一個batch的樣本數量; D_in是輸入維度; # H 是隱藏層向量的維度; D_out是輸出維度. N, D_in, H, D_out = 64, 1000, 100, 10# 創建隨機的輸入輸出數據 x = np.random.randn(N, D_in) y = np.random.randn(N, D_out)# 隨機初始化權重參數print("輸入維度D_in:", D_in)print("隱藏層向量維度H:", H) w1 = np.random.randn(D_in, H)# print("w1:", w1) w2 = np.random.randn(H, D_out) # print("w2:", w2) learning_rate = 1e-6 for t in range(500): # 前向計算, 算出y的預測值h = x.dot(w1)h_relu = np.maximum(h, 0)y_pred = h_relu.dot(w2)# 計算并打印誤差值loss = np.square(y_pred - y).sum() # print(t, loss)# print("t:",t)# 在反向傳播中, 計算出誤差關于w1和w2的導數grad_y_pred = 2.0 * (y_pred - y)grad_w2 = h_relu.T.dot(grad_y_pred)grad_h_relu = grad_y_pred.dot(w2.T)grad_h = grad_h_relu.copy()grad_h[h < 0] = 0grad_w1 = x.T.dot(grad_h)# 更新權重w1 -= learning_rate * grad_w1w2 -= learning_rate * grad_w2轉載于:https://www.cnblogs.com/hugeng007/p/10349326.html
總結
以上是生活随笔為你收集整理的HuaWeiCloud_model_arts的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: CentOS7.6安装Nodejs(Np
- 下一篇: BZOJ 3144 [HNOI2013]