VGG_深度學習_原理

VGG為Deep learning中的一大經典模型,他主要的貢獻是將CNN透過較小的Conv堆疊使模型能夠變得更 “深”接下來會用四個part來介紹VGG: Introduction, Key Point, Experiment以及最後的Conclusion。 # Introduction 當時候發展VGG的背景建立於CNN(AlexNet獲得影像識別冠軍)的成功以及深度學習於GPU上加速的成功。 在當時候Paper研究CNN的改善主要有兩種,一種是使用更小的Conv或是更小的stride,另一種主要是利用不同的Data Augmentation,例如: Multiple Scale training等。而在VGG的paper中主要是將兩個合併在一起,提供一個更深且結果穩定的網路。 #Key Point VGG最重要的概念就是使用大量的3 X 3 Conv,作者認為將較大的Conv抽換成較小的Conv可讓Receptive field提高 (也可說是information 量提高)。此外,使用較多的較小的Conv可以提高Non-Linearity,而與大的Conv比較下減少parameter。 而在使用3

Read more