玩玩机器学习5——构造单层神经网络解决非线性函数(三次函数)的曲线拟合
生活随笔
收集整理的這篇文章主要介紹了
玩玩机器学习5——构造单层神经网络解决非线性函数(三次函数)的曲线拟合
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
使用TensorFlow構(gòu)造了一個(gè)隱藏層和輸出層的神經(jīng)網(wǎng)絡(luò),做非線性曲線的擬合
import tensorflow as tf import matplotlib.pyplot as plt import numpy as npnp.random.seed(1) x = np.linspace(-1, 1, 100)[:, np.newaxis] #創(chuàng)建一個(gè)新維度 noise = np.random.normal(0, 0.1, size=x.shape)#產(chǎn)生0-0.1之間x長度的隨機(jī)數(shù) y = np.power(x, 3) + 0#定義函數(shù)y為二次函數(shù)加上噪聲的圖像 plt.scatter(x, y)#定義x和y的散點(diǎn)圖 plt.show()#畫圖tf.set_random_seed(1)#設(shè)定隨機(jī)種子 tf_x = tf.placeholder(tf.float32, x.shape) #定義占位符x tf_y = tf.placeholder(tf.float32, y.shape) #定義占位符y l1 = tf.layers.dense(tf_x, 10, tf.nn.relu) #定義隱藏層,使用relu激活函數(shù) output = tf.layers.dense(l1, 1) #定義輸出層 loss = tf.losses.mean_squared_error(tf_y, output) # 定義損失值均方誤差loss optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.5)#定義學(xué)習(xí)率為0.5的梯度下降算法的優(yōu)化器 train_op = optimizer.minimize(loss)#執(zhí)行 sess = tf.Session() #定義會話 sess.run(tf.global_variables_initializer()) #會話占位符初始化plt.ion() # 打開交互模式for step in range(500):#訓(xùn)練神經(jīng)網(wǎng)絡(luò)并輸出損失值l和預(yù)測值pred_, l, pred = sess.run([train_op, loss, output], {tf_x: x, tf_y: y})if step % 20 == 0:#每訓(xùn)練5次輸出一次# 畫圖plt.cla()plt.scatter(x, y)plt.plot(x, pred, 'r-', lw=5)#畫出x和預(yù)測值pred的散點(diǎn)圖plt.text(0.5, 0, 'Loss=%.4f' % l, fontdict={'size': 20, 'color': 'red'})#輸出損失值lplt.pause(0.1)plt.ioff()#關(guān)閉交互模式 plt.show()#畫圖GitHub地址:https://github.com/xiaobingchan/machine_learn
效果如圖
?
總結(jié)
以上是生活随笔為你收集整理的玩玩机器学习5——构造单层神经网络解决非线性函数(三次函数)的曲线拟合的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Vue + SpringBoot跨域
- 下一篇: docker登录mysql数据库_Doc