卷積神經網路壓縮方法總結

語言: CN / TW / HK

開啟掘金成長之旅!這是我參與「掘金日新計劃 · 12 月更文挑戰」的第3天,點選檢視活動詳情

卷積網路的壓縮方法

我們知道,在一定程度上,網路越深,引數越多,模型越複雜,其最終效果越好。神經網路的壓縮演算法是,旨在將一個龐大而複雜的預訓練模型(pre-trained model)轉化為一個精簡的小模型。 按照壓縮過程對網路結構的破壞程度,我們將模型壓縮技術分為“前端壓縮”和“後端壓縮”兩部分。

  • 前端壓縮,是指在不改變原網路結構的壓縮技術,主要包括知識蒸餾、輕量級網路(緊湊的模型結構設計)以及濾波器(filter)層面的剪枝(結構化剪枝)等;
  • 後端壓縮,是指包括低秩近似、未加限制的剪枝(非結構化剪枝/稀疏)、引數量化以及二值網路等,目標在於儘可能減少模型大小,會對原始網路結構造成極大程度的改造。

總結:前端壓縮幾乎不改變原有網路結構(僅僅只是在原模型基礎上減少了網路的層數或者濾波器個數),後端壓縮對網路結構有不可逆的大幅度改變,造成原有深度學習庫、甚至硬體裝置不相容改變之後的網路。其維護成本很高。

一,低秩近似

簡單理解就是,卷積神經網路的權重矩陣往往稠密且巨大,從而計算開銷大,有一種辦法是採用低秩近似的技術將該稠密矩陣由若干個小規模矩陣近似重構出來,這種方法歸類為低秩近似演算法。

一般地,行階梯型矩陣的秩等於其“臺階數”-非零行的行數。

低秩近似演算法能減小計算開銷的原理如下:

給定權重矩陣 $W\in \mathbb{R}^{m\times n}$ , 若能將其表示為若干個低秩矩陣的組合,即 $W=\sum_{i=1}^{n}\alpha_{i}M_{i}$ , 其中 $M_{i}\in \mathbb{R}^{m\times n}$ 為低秩矩陣,其秩為 $r_{i}$ , 並滿足 $r_{i}\ll min(m,n)$ ,則其每一個低秩矩陣都可分解為小規模矩陣的乘積,$M_{i}=G_{i}H_{i}^{T}$ ,其中 $G_{i}\in \mathbb{R}^{m\times r_{i}}$ ,$H_{i}\in \mathbb{R}^{m \times r_{i}}$。當 $r_{i}$ 取值很小時,便能大幅降低總體的儲存和計算開銷。

基於以上想法,Sindhwani 等人提出使用結構化矩陣來進行低秩分解的演算法,具體原理可自行參考論文。另一種比較簡便的方法是使用矩陣分解來降低權重矩陣的引數,如 Denton 等人提出使用奇異值分解(Singular Value Decomposition,簡稱 SVD)分解來重構全連線層的權重。

1.1,總結

低秩近似演算法在中小型網路模型上,取得了很不錯的效果,但其超引數量與網路層數呈線性變化趨勢,隨著網路層數的增加與模型複雜度的提升,其搜尋空間會急劇增大,目前主要是學術界在研究,工業界應用不多。

二,剪枝與稀疏約束

給定一個預訓練好的網路模型,常用的剪枝演算法一般都遵從如下操作:

  1. 衡量神經元的重要程度
  2. 移除掉一部分不重要的神經元,這步比前 1 步更加簡便,靈活性更高
  3. 對網路進行微調,剪枝操作不可避免地影響網路的精度,為防止對分類效能造成過大的破壞,需要對剪枝後的模型進行微調。對於大規模行影象資料集(如ImageNet)而言,微調會佔用大量的計算資源,因此對網路微調到什麼程度,是需要斟酌的
  4. 返回第一步,迴圈進行下一輪剪枝

基於以上迴圈剪枝框架,不同學者提出了不同的方法,Han等人提出首先將低於某個閾值的權重連線全部剪除,之後對剪枝後的網路進行微調以完成引數更新的方法,這種方法的不足之處在於,剪枝後的網路是非結構化的,即被剪除的網路連線在分佈上,沒有任何連續性,這種稀疏的結構,導致CPU高速緩衝與記憶體頻繁切換,從而限制了實際的加速效果。

基於此方法,有學者嘗試將剪枝的粒度提升到整個濾波器級別,即丟棄整個濾波器,但是如何衡量濾波器的重要程度是一個問題,其中一種策略是基於濾波器權重本身的統計量,如分別計算每個濾波器的 L1 或 L2 值,將相應數值大小作為衡量重要程度標準。

利用稀疏約束來對網路進行剪枝也是一個研究方向,其思路是在網路的優化目標中加入權重的稀疏正則項,使得訓練時網路的部分權重趨向於 0 ,而這些 0 值就是剪枝的物件

2.1,總結

總體而言,剪枝是一項有效減小模型複雜度的通用壓縮技術,其關鍵之處在於如何衡量個別權重對於整體模型的重要程度。剪枝操作對網路結構的破壞程度極小,將剪枝與其他後端壓縮技術相結合,能夠達到網路模型最大程度壓縮,目前工業界有使用剪枝方法進行模型壓縮的案例。

三,引數量化

相比於剪枝操作,引數量化則是一種常用的後端壓縮技術。所謂“量化”,是指從權重中歸納出若干“代表”,由這些“代表”來表示某一類權重的具體數值。“代表”被儲存在碼本(codebook)之中,而原權重矩陣只需記錄各自“代表”的索引即可,從而極大地降低了儲存開銷。這種思想可類比於經典的詞包模型(bag-of-words model)。常用量化演算法如下:

  1. 標量量化(scalar quantization)。
  2. 標量量化會在一定程度上降低網路的精度,為避免這個弊端,很多演算法考慮結構化的向量方法,其中一種是乘積向量(Product Quantization, PQ),詳情諮詢查閱論文。
  3. 以PQ方法為基礎,Wu等人設計了一種通用的網路量化演算法:QCNN(quantized CNN),主要思想在於Wu等人認為最小化每一層網路輸出的重構誤差,比最小化量化誤差更有效。

標量量化演算法基本思路是,對於每一個權重矩陣 $W\in \mathbb{R}^{m\times n}$,首先將其轉化為向量形式:$w\in \mathbb{R}^{1\times mn}$。之後對該權重向量的元素進行 $k$ 個簇的聚類,這可藉助於經典的 k-均值(k-means)聚類演算法快速完成:

$$\underset{c}{arg min}\sum_{i}^{mn}\sum_{j}^{k}\begin{Vmatrix}​w_{i}-c_{j}\end{Vmatrix}_{2}^{2}$$

這樣,只需將 $k$ 個聚類中心($c_{j}$,標量)儲存在碼本中,而原權重矩陣則只負責記錄各自聚類中心在碼本中索引。如果不考慮碼本的儲存開銷,該演算法能將儲存空間減少為原來的 $log_{2}(k)/32$。基於 $k$ 均值演算法的標量量化在很多應用中非常有效。引數量化與碼本微調過程圖如下:

引數量化與碼本微調過程圖

這三類基於聚類的引數量化演算法,其本質思想在於將多個權重對映到同一個數值,從而實現權重共享,降低儲存開銷的目的。

3.1,總結

引數量化是一種常用的後端壓縮技術,能夠以很小的效能損失實現模型體積的大幅下降,不足之處在於,量化的網路是“固定”的,很難對其做任何改變,同時這種方法通用性差,需要配套專門的深度學習庫來執行網路。

這裡,權重引數從浮點轉定點、二值化等方法都是是試圖避免浮點計算耗時而引入的方法,這些方法能加快運算速率,同時減少記憶體和儲存空間的佔用,並保證模型的精度損失在可接受的範圍內,因此這些方法的應用是有其現實價值的。更多引數量化知識,請參考此 github倉庫

四,二值化網路

  1. 二值化網路可以視為量化方法的一種極端情況:所有的權重引數取值只能為 $\pm 1$ ,也就是使用 1bit來儲存WeightFeature。在普通神經網路中,一個引數是由單精度浮點數來表示的,引數的二值化能將儲存開銷降低為原來的 1/32
  2. 二值化神經網路以其高的模型壓縮率和在前傳中計算速度上的優勢,近幾年格外受到重視和發展,成為神經網路模型研究中的非常熱門的一個研究方向。但是,第一篇真正意義上將神經網路中的權重值和啟用函式值同時做到二值化的是 Courbariaux 等人 2016 年發表的名為《Binarynet: Training deep neural networks with weights and activations constrained to +1 or -1》的一篇論文。這篇論文第一次給出了關於如何對網路進行二值化和如何訓練二值化神經網路的方法
  3. CNN 網路一個典型的模組是由卷積(Conv)->批標準化(BNorm)->啟用(Activ)->池化(Pool)這樣的順序操作組成的。對於異或神經網路,設計出的模組是由批標準化(BNorm)->二值化啟用(BinActiv)->二值化卷積(BinConv)->池化(Pool)的順序操作完成。這樣做的原因是批標準化以後,保證了輸入均值為 0,然後進行二值化啟用,保證了資料為 -1 或者 +1,然後進行二值化卷積,這樣能最大程度上減少特徵資訊的損失。二值化殘差網路結構定義例項程式碼如下:

python def residual_unit(data, num_filter, stride, dim_match, num_bits=1): """殘差塊 Residual Block 定義 """ bnAct1 = bnn.BatchNorm(data=data, num_bits=num_bits) conv1 = bnn.Convolution(data=bnAct1, num_filter=num_filter, kernel=(3, 3), stride=stride, pad=(1, 1)) convBn1 = bnn.BatchNorm(data=conv1, num_bits=num_bits) conv2 = bnn.Convolution(data=convBn1, num_filter=num_filter, kernel=(3, 3), stride=(1, 1), pad=(1, 1)) if dim_match: shortcut = data else: shortcut = bnn.Convolution(data=bnAct1, num_filter=num_filter, kernel=(3, 3), stride=stride, pad=(1, 1)) return conv2 + shortcut

4.1,二值網路的梯度下降

現在的神經網路幾乎都是基於梯度下降演算法來訓練的,但是二值網路的權重只有 $\pm 1$,無法直接計算梯度資訊,也無法進行權重更新。為解決這個問題,Courbariaux 等人提出二值連線(binary connect)演算法,該演算法採取單精度與二值結合的方式來訓練二值神經網路,這是第一次給出了關於如何對網路進行二值化和如何訓練二值化神經網路的方法。過程如下:

  1. 權重 weight 初始化為浮點
  2. 前向傳播 Forward Pass:
    • 利用決定化方式(sign(x)函式)把 Weight 量化為 +1/-1, 以0為閾值
    • 利用量化後的 Weight (只有+1/-1)來計算前向傳播,由二值權重與輸入進行卷積運算(實際上只涉及加法),獲得卷積層輸出。
  3. 反向傳播 Backward Pass:
    • 把梯度更新到浮點的 Weight 上(根據放鬆後的符號函式,計算相應梯度值,並根據該梯度的值對單精度的權重進行引數更新)
    • 訓練結束: 把 Weight 永久性轉化為 +1/-1, 以便 inference 使用

4.1,兩個問題

網路二值化需要解決兩個問題:如何對權重進行二值化和如何計算二值權重的梯度。

1,如何對權重進行二值化?

權重二值化一般有兩種選擇:

  • 直接根據權重的正負進行二值化:$x^{b}=sign(x)$。符號函式 sign(x) 定義如下: $$ sign(x) = \left{\begin{matrix} -1 & x < 0 \\ 0 & x = 0 \\ 1 & x > 0 \end{matrix}\right. $$

  • 進行隨機的二值化,即對每一個權重,以一定概率取 $\pm 1$

2,如何計算二值權重的梯度?

二值權重的梯度為0,無法進行引數更新。為解決這個問題,需要對符號函式進行放鬆,即用 $Htanh(x) = max(-1, min(1,x))$ 來代替 $sinx(x)$。當 x 在區間 [-1,1] 時,存在梯度值 1,否則梯度為 0 。

4.3,二值連線演算法改進

之前的二值連線演算法只對權重進行了二值化,但是網路的中間輸出值依然是單精度的,於是 Rastegari 等人對此進行了改進,提出用單精度對角陣與二值矩陣之積來近似表示原矩陣的演算法,以提升二值網路的分類效能,彌補二值網路在精度上弱勢。該演算法將原卷積運算分解為如下過程:

$$I \times W\approx (I \times B)\alpha$$

其中 $I\in \mathbb{R}^{c\times w_{in}\times h_{in}}$ 為該層的輸入張量,$I\in \mathbb{R}^{c\times w\times h}$ 為該層的一個濾波器,$B=sign(W)\in {+1, -1}^{c \times w\times h}$為該濾波器所對應的二值權重。

這裡,Rastegari 等人認為單靠二值運算,很難達到原單精度卷積元素的結果,於是他們使用了一個單精度放縮因子 $\alpha \in \mathbb{R}^{+}$ 來對二值濾波器卷積後的結果進行放縮。而 $\alpha$ 的取值,則可根據優化目標:

$$min \left \| W -\alpha B \right \|^{2}$$

得到 $\alpha = \frac{1}{n}\left |W \right |\ell{1}$。二值連線改進的演算法訓練過程與之前的演算法大致相同,不同的地方在於梯度的計算過程還考慮了 $\alpha$ 的影響。由於 $\alpha$ 這個單精度的縮放因子的存在,有效降低了重構誤差,並首次在 ImageNet 資料集上取得了與 Alex-Net 相當的精度。如下圖所示:

二值化網路精度對比

可以看到的是權重二值化神經網路(BWN)和全精度神經網路的精確度幾乎一樣,但是與異或神經網路(XNOR-Net)相比而言,Top-1 和 Top-5 都有 10+% 的損失。

相比於權重二值化神經網路,異或神經網路將網路的輸入也轉化為二進位制值,所以,異或神經網路中的乘法加法 (Multiplication and ACcumulation) 運算用按位異或 (bitwise xnor) 和數 1 的個數 (popcount) 來代替。

更多內容,可以看這兩篇文章:

4.4,二值網路設計注意事項

  • 不要使用 kernel = (1, 1) 的 Convolution (包括 resnet 的 bottleneck):二值網路中的 weight 都為 1bit, 如果再是 1x1 大小, 會極大地降低表達能力
  • 增大 Channel 數目 + 增大 activation bit 數 要協同配合:如果一味增大 channel 數, 最終 feature map 因為 bit 數過低, 還是浪費了模型容量。 同理反過來也是。
  • 建議使用 4bit 及以下的 activation bit, 過高帶來的精度收益變小, 而會顯著提高 inference 計算量

五,知識蒸餾

本文只簡單介紹這個領域的開篇之作-Distilling the Knowledge in a Neural Network,這是蒸 "logits"方法,後面還出現了蒸 "features" 的論文。想要更深入理解,中文部落格可參考這篇文章-知識蒸餾是什麼?一份入門隨筆

知識蒸餾(knowledge distillation),是遷移學習(transfer learning)的一種,簡單來說就是訓練一個大模型(teacher)和一個小模型(student),將龐大而複雜的大模型學習到的知識,通過一定技術手段遷移到精簡的小模型上,從而使小模型能夠獲得與大模型相近的效能。

在知識蒸餾的實驗中,我們先訓練好一個 teacher 網路,然後將 teacher 的網路的輸出結果 $q$ 作為 student 網路的目標,訓練 student 網路,使得 student 網路的結果 $p$ 接近 $q$ ,因此,student 網路的損失函式為 $L = CE(y,p)+\alpha CE(q,p)$。這裡 CE 是交叉熵(Cross Entropy),$y$ 是真實標籤的 onehot 編碼,$q$ 是 teacher 網路的輸出結果,$p$ 是 student 網路的輸出結果。

但是,直接使用 teacher 網路的 softmax 的輸出結果 $q$,可能不大合適。因此,一個網路訓練好之後,對於正確的答案會有一個很高的置信度。例如,在 MNIST 資料中,對於某個 2 的輸入,對於 2 的預測概率會很高,而對於 2 類似的數字,例如 3 和 7 的預測概率為 $10^-6$ 和 $10^-9$。這樣的話,teacher 網路學到資料的相似資訊(例如數字 2 和 3,7 很類似)很難傳達給 student 網路,因為它們的概率值接近0。因此,論文提出了 softmax-T(軟標籤計算公式),公式如下所示: $$q_{i} = \frac{z_{i}/T}{\sum_{j}z_{j}/T}$$

這裡 $q_i$ 是 $student$ 網路學習的物件(soft targets),$z_i$ 是 teacher 模型 softmax 前一層的輸出 logit。如果將 $T$ 取 1,上述公式變成 softmax,根據 logit 輸出各個類別的概率。如果 $T$ 接近於 0,則最大的值會越近 1,其它值會接近 0,近似於 onehot 編碼。

所以,可以知道 student 模型最終的損失函式由兩部分組成:

  • 第一項是由小模型的預測結果與大模型的“軟標籤”所構成的交叉熵(cross entroy);
  • 第二項為預測結果與普通類別標籤的交叉熵。

這兩個損失函式的重要程度可通過一定的權重進行調節,在實際應用中,T 的取值會影響最終的結果,一般而言,較大的 T 能夠獲得較高的準確度,T(蒸餾溫度引數) 屬於知識蒸餾模型訓練超引數的一種。T 是一個可調節的超引數、T 值越大、概率分佈越軟(論文中的描述),曲線便越平滑,相當於在遷移學習的過程中添加了擾動,從而使得學生網路在借鑑學習的時候更有效、泛化能力更強,這其實就是一種抑制過擬合的策略。知識蒸餾的整個過程如下圖:

知識蒸餾模型訓練過程

student 模型的實際模型結構和小模型一樣,但是損失函式包含了兩部分,分類網路的知識蒸餾 mxnet 程式碼示例如下::

```python

--coding-- : utf-8

""" 本程式沒有給出具體的模型結構程式碼,主要給出了知識蒸餾 softmax 損失計算部分。 """ import mxnet as mx

def get_symbol(data, class_labels, resnet_layer_num,Temperature,mimic_weight,num_classes=2): backbone = StudentBackbone(data) # Backbone 為分類網路 backbone 類 flatten = mx.symbol.Flatten(data=conv1, name="flatten") fc_class_score_s = mx.symbol.FullyConnected(data=flatten, num_hidden=num_classes, name='fc_class_score') softmax1 = mx.symbol.SoftmaxOutput(data=fc_class_score_s, label=class_labels, name='softmax_hard')

import symbol_resnet  # Teacher model
fc_class_score_t = symbol_resnet.get_symbol(net_depth=resnet_layer_num, num_class=num_classes, data=data)

s_input_for_softmax=fc_class_score_s/Temperature
t_input_for_softmax=fc_class_score_t/Temperature

t_soft_labels=mx.symbol.softmax(t_input_for_softmax, name='teacher_soft_labels')
softmax2 = mx.symbol.SoftmaxOutput(data=s_input_for_softmax, label=t_soft_labels, name='softmax_soft',grad_scale=mimic_weight)
group=mx.symbol.Group([softmax1,softmax2])
group.save('group2-symbol.json')

return group

``tensorflow`程式碼示例如下:

```python

將類別標籤進行one-hot編碼

one_hot = tf.one_hot(y, n_classes,1.0,0.0) # n_classes為類別總數, n為類別標籤

one_hot = tf.cast(one_hot_int, tf.float32)

teacher_tau = tf.scalar_mul(1.0/args.tau, teacher) # teacher為teacher模型直接輸出張量, tau為溫度係數T student_tau = tf.scalar_mul(1.0/args.tau, student) # 將模型直接輸出logits張量student處於溫度係數T objective1 = tf.nn.sigmoid_cross_entropy_with_logits(student_tau, one_hot) objective2 = tf.scalar_mul(0.5, tf.square(student_tau-teacher_tau)) """ student模型最終的損失函式由兩部分組成: 第一項是由小模型的預測結果與大模型的“軟標籤”所構成的交叉熵(cross entroy); 第二項為預測結果與普通類別標籤的交叉熵。 """ tf_loss = (args.lamdatf.reduce_sum(objective1) + (1-args.lamda)tf.reduce_sum(objective2))/batch_size ```

tf.scalar_mul 函式為對 tf 張量進行固定倍率 scalar 縮放函式。一般 T 的取值在 1 - 20 之間,這裡我參考了開原始碼,取值為 3。我發現在開原始碼中 student 模型的訓練,有些是和 teacher 模型一起訓練的,有些是 teacher 模型訓練好後直接指導 student 模型訓練。

六,淺層/輕量網路

淺層網路:通過設計一個更淺(層數較少)結構更緊湊的網路來實現對複雜模型效果的逼近, 但是淺層網路的表達能力很難與深層網路相匹敵。因此,這種設計方法的侷限性在於只能應用解決在較為簡單問題上。如分類問題中類別數較少的 task

輕量網路:使用如 MobilenetV2、ShuffleNetv2 等輕量網路結構作為模型的 backbone可以大幅減少模型引數數量。

參考資料

  1. 神經網路模型壓縮和加速之知識蒸餾
  2. https://github.com/chengshengchan/model_compression/blob/master/teacher-student.py
  3. https://github.com/dkozlov/awesome-knowledge-distillation
  4. XNOR-Net
  5. 解析卷積神經網路-深度學習實踐手冊
  6. 知識蒸餾(Knowledge Distillation)簡述(一)