免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
2.2 莫煩 TensorFlow 例子2 預(yù)測(cè)一次函數(shù)


例子2

作者: Morvan    編輯: Morvan   

Tensorflow 是非常重視結(jié)構(gòu)的, 我們得建立好了神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu), 才能將數(shù)字放進(jìn)去, 運(yùn)行這個(gè)結(jié)構(gòu).

這個(gè)例子簡(jiǎn)單的闡述了 tensorflow 當(dāng)中如何用代碼來(lái)運(yùn)行我們搭建的結(jié)構(gòu).

首先, 我們這次需要加載 tensorflow 和 numpy 兩個(gè)模塊, 并且使用 numpy來(lái)創(chuàng)建我們的數(shù)據(jù).

import tensorflow as tfimport numpy as np# create datax_data = np.random.rand(100).astype(np.float32)y_data = x_data*0.1 + 0.3

接著, 我們用 tf.Variable 來(lái)創(chuàng)建描述 y 的參數(shù). 我們可以把 y_data = x_data*0.1 + 0.3想象成 y=Weights * x + biases, 然后神經(jīng)網(wǎng)絡(luò)也就是學(xué)著把 Weights 變成 0.1, biases 變成 0.3.

Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))biases = tf.Variable(tf.zeros([1]))y = Weights*x_data + biases

接著就是計(jì)算 yy_data 的誤差:

loss = tf.reduce_mean(tf.square(y-y_data))

反向傳遞誤差的工作就教給optimizer了, 我們使用的誤差專遞方法是梯度下降法: Gradient Descent讓后我們使用 optimizer 來(lái)進(jìn)行參數(shù)的更新.

optimizer = tf.train.GradientDescentOptimizer(0.5)train = optimizer.minimize(loss)

到目前為止, 我們只是建立了神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu), 還沒(méi)有使用這個(gè)結(jié)構(gòu). 在使用這個(gè)結(jié)構(gòu)之前, 我們必須先初始化所有之前定義的Variable, 所以這一步是很重要的!

# init = tf.initialize_all_variables() # tf 馬上就要廢棄這種寫法init = tf.global_variables_initializer()  # 替換成這樣就好

接著,我們?cè)賱?chuàng)建會(huì)話 Session. 我們會(huì)在下一節(jié)中詳細(xì)講解 Session. 我們用 Session 來(lái)執(zhí)行 init 初始化步驟. 并且,用 Session 來(lái) run 每一次 training 的數(shù)據(jù). 逐步提升神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)準(zhǔn)確性.

sess = tf.Session()sess.run(init)          # Very importantfor step in range(201):    sess.run(train)    if step % 20 == 0:        print(step, sess.run(Weights), sess.run(biases))

整個(gè)代碼如下:
 
注意在實(shí)際運(yùn)行過(guò)程中

 
 加入中文注釋:# -*- coding: utf-8 -*-
 
 


 
 



總結(jié):

這里可認(rèn)為:
y=Weights*x_data+biases 可以認(rèn)為是神經(jīng)網(wǎng)絡(luò)

可認(rèn)為:
x_data:訓(xùn)練集的數(shù)據(jù)
y_data:訓(xùn)練集的標(biāo)簽
通過(guò)訓(xùn)練集訓(xùn)練,使得y=Weights*x_data+biases 最終有正確的結(jié)構(gòu)即
y_data=x_data*0.1+0.3
,輸出正確的結(jié)構(gòu)。



自己敲得代碼:
 
 
結(jié)果:
 
 











本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)
打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
TF之NN:基于Tensorflow利用神經(jīng)網(wǎng)絡(luò)算法對(duì)數(shù)據(jù)集(用一次函數(shù)隨機(jī)生成100個(gè)數(shù))訓(xùn)練預(yù)測(cè)斜率、截距(逼近已知一次函數(shù))
tensorflow學(xué)習(xí)
令人困惑的TensorFlow!
【機(jī)器學(xué)習(xí)】TensorFlow學(xué)習(xí)(一)
Tensorflow中變量保存與恢復(fù)
Tensorflow
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服