天天看點

深入淺出的解釋什麼是tensor

大資料文摘作品,轉載要求見文末

編譯 | 邵胖胖,江凡,笪潔瓊,Aileen

也許你已經下載下傳了TensorFlow,而且準備開始着手研究深度學習。但是你會疑惑:TensorFlow裡面的Tensor,也就是“張量”,到底是個什麼鬼?也許你查閱了維基百科,而且現在變得更加困惑。也許你在NASA教程中看到它,仍然不知道它在說些什麼?問題在于大多數講述張量的指南,都假設你已經掌握他們描述數學的所有術語。

别擔心!

我像小孩子一樣讨厭數學,是以如果我能明白,你也可以!我們隻需要用簡單的措辭來解釋這一切。是以,張量(Tensor)是什麼,而且為什麼會流動(Flow)?

目錄

0維張量/标量

标量是一個數字

1維張量/向量

1維張量稱為“向量”。

2維張量

2維張量稱為矩陣

3維張量

公用資料存儲在張量

時間序列資料

股價

文本資料

圖檔

彩色圖檔

5D張量

結論

讓我們先來看看tensor(張量)是什麼?

張量=容器

張量是現代機器學習的基礎。它的核心是一個資料容器,多數情況下,它包含數字,有時候它也包含字元串,但這種情況比較少。是以把它想象成一個數字的水桶。

張量有多種形式,首先讓我們來看最基本的形式,你會在深度學習中偶然遇到,它們在0維到5維之間。我們可以把張量的各種類型看作這樣(對被題目中的貓咪吸引進來小夥伴說一句,不要急!貓咪在後面會出現哦!):

0維張量/标量

裝在張量/容器水桶中的每個數字稱為“标量”。

标量是一個數字。

你會問為什麼不幹脆叫它們一個數字呢?

我不知道,也許數學家隻是喜歡聽起來酷?标量聽起來确實比數字酷。

實際上,你可以使用一個數字的張量,我們稱為0維張量,也就是一個隻有0維的張量。它僅僅隻是帶有一個數字的水桶。想象水桶裡隻有一滴水,那就是一個0維張量。

本教程中,我将使用Python,Keras,TensorFlow和Python庫Numpy。在Python中,張量通常存儲在Nunpy數組,Numpy是在大部分的AI架構中,一個使用頻率非常高的用于科學計算的資料包。

你将在Kaggle(資料科學競賽網站)上經常看到Jupyter Notebooks(安裝見文末閱讀連結,“數學爛也要學AI:帶你造一個經濟試用版AI終極必殺器”)關于把資料轉變成Numpy數組。Jupyter notebooks本質上是由工作代碼标記嵌入。可以認為它把解釋和程式融為一體。

我們為什麼想把資料轉換為Numpy數組?

很簡單。因為我們需要把所有的輸入資料,如字元串文本,圖像,股票價格,或者視訊,轉變為一個統一得标準,以便能夠容易的處理。

這樣我們把資料轉變成數字的水桶,我們就能用TensorFlow處理。

它僅僅是組織資料成為可用的格式。在網頁程式中,你也許通過XML表示,是以你可以定義它們的特征并快速操作。同樣,在深度學習中,我們使用張量水桶作為基本的樂高積木。

1維張量/向量

如果你是名程式員,那麼你已經了解,類似于1維張量:數組。

每個程式設計語言都有數組,它隻是單列或者單行的一組資料塊。在深度學習中稱為1維張量。張量是根據一共具有多少坐标軸來定義。1維張量隻有一個坐标軸。

1維張量稱為“向量”。

我們可以把向量視為一個單列或者單行的數字。

如果想在Numpy得出此結果,按照如下方法:

我們可以通過NumPy’s ndim函數,檢視張量具有多個坐标軸。我們可以嘗試1維張量。

2維張量

你可能已經知道了另一種形式的張量,矩陣——2維張量稱為矩陣

不,這不是基努·裡維斯(Keanu Reeves)的電影《黑客帝國》,想象一個excel表格。

我們可以把它看作為一個帶有行和列的數字網格。

這個行和清單示兩個坐标軸,一個矩陣是二維張量,意思是有兩維,也就是有兩個坐标軸的張量。

在Numpy中,我們可以如下表示:

x = np.array([[5,10,15,30,25],

[20,30,65,70,90],

[7,80,95,20,30]])

我們可以把人的特征存儲在一個二維張量。有一個典型的例子是郵件清單。

比如我們有10000人,我們有每個人的如下特性和特征:

First Name(名)

Last Name(姓)

Street Address(街道位址)

City(城市)

State(州/省)

Country(國家)

Zip(郵政編碼)

這意味着我們有10000人的七個特征。

張量具有“形狀”,它的形狀是一個水桶,即裝着我們的資料也定義了張量的最大尺寸。我們可以把所有人的資料放進二維張量中,它是(10000,7)。

你也許想說它有10000列,7行。不。張量能夠被轉換和操作,進而使列變為行或者行變為列。

3維張量

這時張量真正開始變得有用,我們經常需要把一系列的二維張量存儲在水桶中,這就形成了3維張量。

在NumPy中,我們可以表示如下:

x = np.array([[[5,10,15,30,25],

[20,30,65,70,90],

[7,80,95,20,30]]

[[3,0,5,0,45],

[12,-2,6,7,90],

[18,-9,95,120,30]]

[[17,13,25,30,15],

[23,36,9,7,80],

[1,-7,-5,22,3]]])

你已經猜到,一個三維張量有三個坐标軸,可以這樣看到:

x.ndim

輸出為:

3

讓我們再看一下上面的郵件清單,現在我們有10個郵件清單,我們将存儲2維張量在另一個水桶裡,建立一個3維張量,它的形狀如下:

(number_of_mailing_lists, number_of_people, number_of_characteristics_per_person)

(10,10000,7)

你也許已經猜到它,但是一個3維張量是一個數字構成的立方體。

我們可以繼續堆疊立方體,建立一個越來越大的張量,來編輯不同類型的資料,也就是4維張量,5維張量等等,直到N維張量。N是數學家定義的未知數,它是一直持續到無窮集合裡的附加機關。它可以是5,10或者無窮。

實際上,3維張量最好視為一層網格,看起來有點像下圖:

存儲在張量資料中的公式

這裡有一些存儲在各種類型張量的公用資料集類型:

3維=時間序列

4維=圖像

5維=視訊

幾乎所有的這些張量的共同之處是樣本量。樣本量是集合中元素的數量,它可以是一些圖像,一些視訊,一些檔案或者一些推特。

通常,真實的資料至少是一個資料量。

把形狀裡不同維數看作字段。我們找到一個字段的最小值來描述資料。

是以,即使4維張量通常存儲圖像,那是因為樣本量占據張量的第4個字段。

例如,一個圖像可以用三個字段表示:

(width, height, color_depth) = 3D

但是,在機器學習工作中,我們經常要處理不止一張圖檔或一篇文檔——我們要處理一個集合。我們可能有10,000張郁金香的圖檔,這意味着,我們将用到4D張量,就像這樣:

(sample_size, width, height, color_depth) = 4D

我們來看看一些多元張量存儲模型的例子:

時間序列資料

用3D張量來模拟時間序列會非常有效!

醫學掃描——我們可以将腦電波(EEG)信号編碼成3D張量,因為它可以由這三個參數來描述:

(time, frequency, channel)

這種轉化看起來就像這樣:

如果我們有多個病人的腦電波掃描圖,那就形成了一個4D張量:

(sample_size, time, frequency, channel)

Stock Prices

在交易中,股票每分鐘有最高、最低和最終價格。如下圖的蠟燭圖所示:

紐交所開市時間從早上9:30到下午4:00,即6.5個小時,總共有6.5 x 60 = 390分鐘。如此,我們可以将每分鐘内最高、最低和最終的股價存入一個2D張量(390,3)。如果我們追蹤一周(五天)的交易,我們将得到這麼一個3D張量:

(week_of_data, minutes, high_low_price)

即:(5,390,3)

同理,如果我們觀測10隻不同的股票,觀測一周,我們将得到一個4D張量

(10,5,390,3)

假設我們在觀測一個由25隻股票組成的共同基金,其中的每隻股票由我們的4D張量來表示。那麼,這個共同基金可以有一個5D張量來表示:

(25,10,5,390,3)

文本資料

我們也可以用3D張量來存儲文本資料,我們來看看推特的例子。

首先,推特有140個字的限制。其次,推特使用UTF-8編碼标準,這種編碼标準能表示百萬種字元,但實際上我們隻對前128個字元感興趣,因為他們與ASCII碼相同。是以,一篇推特文可以包裝成一個2D向量:

(140,128)

如果我們下載下傳了一百萬篇川普哥的推文(印象中他一周就能推這麼多),我們就會用3D張量來存:

(number_of_tweets_captured, tweet, character)

這意味着,我們的川普推文集合看起來會是這樣:

(1000000,140,128)

圖檔

4D張量很适合用來存諸如JPEG這樣的圖檔檔案。之前我們提到過,一張圖檔有三個參數:高度、寬度和顔色深度。一張圖檔是3D張量,一個圖檔集則是4D,第四維是樣本大小。

著名的MNIST資料集是一個手寫的數字序列,作為一個圖像識别問題,曾在幾十年間困擾許多資料科學家。現在,計算機能以99%或更高的準确率解決這個問題。即便如此,這個資料集仍可以當做一個優秀的校驗基準,用來測試新的機器學習算法應用,或是用來自己做實驗。

Keras 甚至能用以下語句幫助我們自動導入MNIST資料集:

from keras.datasets import mnist

(train_images, train_labels), (test_images, test_labels) = mnist.load_data()

這個資料集被分成兩個部分:訓練集和測試集。資料集中的每張圖檔都有一個标簽。這個标簽寫有正确的讀數,例如3,7或是9,這些标簽都是通過人工判斷并填寫的。

訓練集是用來訓練神經網絡學習算法,測試集則用來校驗這個學習算法。

MNIST圖檔是黑白的,這意味着它們可以用2D張量來編碼,但我們習慣于将所有的圖檔用3D張量來編碼,多出來的第三個次元代表了圖檔的顔色深度。

MNIST資料集有60,000張圖檔,它們都是28 x 28像素,它們的顔色深度為1,即隻有灰階。

TensorFlow這樣存儲圖檔資料:

(sample_size, height, width, color_depth).

于是我們可以認為,MNIST資料集的4D張量是這樣的:

(60000,28,28,1)

彩色圖檔

彩色圖檔有不同的顔色深度,這取決于它們的色彩(注:跟分辨率沒有關系)編碼。一張典型的JPG圖檔使用RGB編碼,于是它的顔色深度為3,分别代表紅、綠、藍。

這是一張我美麗無邊的貓咪(Dove)的照片,750 x750像素,這意味着我們能用一個3D張量來表示它:

(750,750,3)

My beautiful cat Dove (750 x 750 pixels)

這樣,我可愛的Dove将被簡化為一串冷冰冰的數字,就好像它變形或流動起來了。

然後,如果我們有一大堆不同類型的貓咪圖檔(雖然都沒有Dove美),也許是100,000張吧,不是DOVE它的,750 x750像素的。我們可以在Keras中用4D張量來這樣定義:

(10000,750,750,3)

5D張量

5D張量可以用來存儲視訊資料。TensorFlow中,視訊資料将如此編碼:

(sample_size, frames, width, height, color_depth)

如果我們考察一段5分鐘(300秒),1080pHD(1920 x 1080像素),每秒15幀(總共4500幀),顔色深度為3的視訊,我們可以用4D張量來存儲它:

(4500,1920,1080,3)

當我們有多段視訊的時候,張量中的第五個次元将被使用。如果我們有10段這樣的視訊,我們将得到一個5D張量:

(10,4500,1920,1080,3)

實際上這個例子太瘋狂了!

這個張量的大是很荒謬的,超過1TB。我們姑且考慮下這個例子以便說明一個問題:在現實世界中,我們有時需要盡可能的縮小樣本資料以友善的進行處理計算,除非你有無盡的時間。

這個5D張量中值的數量為:

10 x 4500 x 1920 x 1080 x 3 = 279,936,000,000

在Keras中,我們可以用一個叫dype的資料類型來存儲32bits或64bits的浮點數

我們5D張量中的每一個值都将用32 bit來存儲,現在,我們以TB為機關來進行轉換:

279,936,000,000 x 32 = 8,957,952,000,000

這還隻是保守估計,或許用32bit來儲存根本就不夠(誰來計算一下如果用64bit來存儲會怎樣),是以,減小你的樣本吧朋友。

事實上,我舉出這最後一個瘋狂的例子是有特殊目的的。我們剛學過資料預處理和資料壓縮。你不能什麼工作也不做就把大堆資料扔向你的AI模型。你必須清洗和縮減那些資料讓後續工作更簡潔更高效。

降低分辨率,去掉不必要的資料(也就是去重處理),這大大縮減了幀數,等等這也是資料科學家的工作。如果你不能很好地對資料做這些預處理,那麼你幾乎做不了任何有意義的事。

結論

好了,現在你已經對張量和用張量如何對接不同類型資料有了更好的了解。

下一篇“數學爛也要學AI”文章裡,我們将學習如何在張量上做各種變換,這就是大家所熟知的數學。換句話說,我們将讓張量“流動Flow起來”。

繼續閱讀