中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
TensorFlow常用API | 天空的城
文章目錄
  1. 軸(axis)
  2. tf.slice

越來(lái)越感覺(jué)學(xué)習(xí)python一個(gè)第三方庫(kù)就跟學(xué)一門(mén)新語(yǔ)言差不多,龐大的TensorFlow更是如此。這篇博客會(huì)持續(xù)記錄關(guān)于tensorflow的一些api的用法。

軸(axis)

在tensorflow中,最基本的變量或者常量都是tensor類(lèi)型,說(shuō)直接點(diǎn)就是多維數(shù)組,因此涉及到了很多在某一個(gè)維度上操作的API,比如tf.reduce_*(),tf_arg*(),tf_expand_dims()等,這些基本的API都有一個(gè)共同的參數(shù):axis=,也就說(shuō)這些操作都是哪些維度(軸)上做運(yùn)算,除了在tf中,在numpy里面也有這一參數(shù),之前一直是一知半解?,F(xiàn)在總結(jié)一下這個(gè)axis,由于numpy與tensorflow的axis基本一樣,因此下面以numpy為例。

首先可以從多維數(shù)組(tensor)的shape來(lái)得到數(shù)組的維度: d=len(array.shape):

1
2
3
4
5
In [2]: a = np.array([[1,2,3],[4,5,6]])
In [3]: a.shape
Out[3]: (2, 3)
In [4]: len(a.shape)
Out[4]: 2

也就是說(shuō)上述的數(shù)組a的shape為(2,3),維度是2維,也就是有兩層嵌套數(shù)組,看看有多少層[],因此axis的取值只能為0,1,下面以sum為例,看看不同的axis的結(jié)果:

1
2
3
4
5
6
7
8
In [5]: np.sum(a)
Out[5]: 21
In [6]: np.sum(a,axis=0)
Out[6]: array([5, 7, 9])
In [7]: np.sum(a,axis=1)
Out[7]: array([ 6, 15])

一個(gè)一個(gè)的說(shuō)明。首先需要明白操作的對(duì)象是誰(shuí)?這這個(gè)例子中,就是那些元素相加。怎么來(lái)確定是哪些元素呢?個(gè)人使用的原則是:

對(duì)原來(lái)數(shù)組去掉axis+1層嵌套([]),對(duì)剩下的元素再分組進(jìn)行相應(yīng)的操作。

首先如果不加axis參數(shù),則默認(rèn)對(duì)所有元素直接做sum操作,因此結(jié)果就是21。當(dāng)axis=0的時(shí)候, 相加的對(duì)象,則是變成了[1,2,3]+[4,5,6],按照上面的原則,a去掉一層嵌套,也就是[]之后,變?yōu)? [1,2,3],[4,5,6] 那么sum的對(duì)象: [1,2,3]+[4,5,6]=[5,7,9]。 再接著看axis=1,這時(shí)候需要去掉兩層嵌套,去掉第一層變?yōu)?[1,2,3], [4,5,6],去掉第二層嵌套,剩下了1,2,34,5,6兩個(gè)組,因此兩個(gè)組內(nèi)各個(gè)相加即可,得到的最終的結(jié)果為:[6,15]。 下面以同樣的思路,計(jì)算最小值:

1
2
3
4
5
6
7
8
In [3]: np.min(a)
Out[3]: 1
In [4]: np.min(a, axis=0)
Out[4]: array([1, 2, 3])
In [5]: np.min(a, axis=1)
Out[5]: array([1, 4])

有一個(gè)稍微特殊的是expand_dims 這個(gè)是擴(kuò)展維度。對(duì)于這個(gè)api它的axis沒(méi)有上限約束,不過(guò)當(dāng)所有的元素自成一個(gè)列表之后,不再變化。它的axis參數(shù)不一樣的地方,是在axis的位置加入新的一個(gè)軸,也就是說(shuō)此時(shí)對(duì)原數(shù)組去掉axis層嵌套,而非axis+1層,然后再對(duì)每組進(jìn)行加一個(gè)軸,看例子:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
In [25]: a
Out[25]:
array([[1, 2, 3],
[4, 5, 6]])
In [26]: np.expand_dims(a, axis=0) # 新加的軸為第0軸
Out[26]:
array([[[1, 2, 3],
[4, 5, 6]]])
In [27]: np.expand_dims(a, axis=1)# 新加的軸為第1層
Out[27]:
array([[[1, 2, 3]],
[[4, 5, 6]]])
In [28]: np.expand_dims(a, axis=2)
Out[28]:
array([[[1],
[2],
[3]],
[[4],
[5],
[6]]])

到現(xiàn)在基本上tensorflow以及numpy的axis這個(gè)參數(shù)基本沒(méi)有問(wèn)題了。 下面再看幾個(gè)常用的函數(shù)。

tf.slice

這個(gè)函數(shù)主要用于對(duì)多維數(shù)組的截取(切片),首先看看原型:

1
tf.slice(input_, begin, size, name=None)
  • input_: 輸入
  • begin: 開(kāi)始截取的位置
  • size: 每一個(gè)維度截取的長(zhǎng)度

直接看文檔的例子:

1
2
3
4
5
6
7
8
# 'input' is [[[1, 1, 1], [2, 2, 2]],
# [[3, 3, 3], [4, 4, 4]],
# [[5, 5, 5], [6, 6, 6]]]
tf.slice(input, [1, 0, 0], [1, 1, 3]) ==> [[[3, 3, 3]]]
tf.slice(input, [1, 0, 0], [1, 2, 3]) ==> [[[3, 3, 3],
[4, 4, 4]]]
tf.slice(input, [1, 0, 0], [2, 1, 3]) ==> [[[3, 3, 3]],
[[5, 5, 5]]]

先看第一個(gè)例子:

begin=[1,0,0]也就是開(kāi)始的元素,這里就是input[1][0][0] = 3,就是第二行[3,3,3]的第一個(gè)3,,再看截取距離: [1,1,3],首先在axis=0的上截取一個(gè)距離,得到是第二整行[[3,3,3],[4,4,4]],在axis=1上截取2個(gè)距離,得到[3,3,3],最后在axis=2上截取了3個(gè)距離,也就是[3,3,3]這三個(gè)元素都得到,最終結(jié)果為:[3,3,3]。

第二個(gè)例子解析:

開(kāi)始的元素仍然是input[1][0][0=0],在axis=0上截取1個(gè)距離,得到仍然是[[[3,3,3],[4,4,4]]] ,第二個(gè)維度上截取距離為2,得到[[[3,3,3],[4,4,4]]],最后在第三個(gè)維度上截取3,即三個(gè)元素都保留,得到結(jié)果。這里如果第三個(gè)維度截取2的話(huà),那么得到就是[[[3,3],[4,4]]]。

第三個(gè)同理,不再敘述。

參考: 1

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶(hù)發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
Tensor數(shù)據(jù)相關(guān)的運(yùn)算及函數(shù)講解
可視化NumPy、Torch和Tensorflow的基本操作
Implementing a CNN for Human Activity Recognition in Tensorflow
TensorFlow全新的數(shù)據(jù)讀取方式:Dataset API入門(mén)教程
TensorFlow2學(xué)習(xí)(1)
TensorFlow2.0(1):基本數(shù)據(jù)結(jié)構(gòu)——張量
更多類(lèi)似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服