RepLKNet

Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs 近年來 Transformer 的崛起,普遍認為 self-attention 在影像領域可以表現得比 CNN 更好,這篇發表在 CVPR 2022 上的研究表示認為這不是因為 Self-attention 的設計形式(query-key-value),而是因為其有效感受野特別大,因此作者提出了提出了超大 kernel 的模型,在一系列的實驗下證明較大的卷積核在現代模型優化的設計下,計算量並不會提升多少且在一些 downstream tasks 的效能更甚於較深但 kernel 較小的網路架構。

繼續閱讀

智慧監控所使用的CNN的架構大部分是來自 ImageNet Challenge 比賽中獲勝的網路架構,這些較著名的CNN 架構具有更深層且更複雜的神經網路從而達到更高的精度,但在現今的硬體技術發展下,高端硬體設備已經可以讓這些複雜的神經網路達成 real-time 的效果。但在智慧監控領域中多通道的影像,需要同時進行處理並實現及時運算,考量這些大量監視器影像所需的計算成本,以現今的硬體設備還是難以達成

繼續閱讀

作者的圖片

Tuna Hsu

Crafting code to innovate and solve problems 🚀

M.S. student, Taiwan Tech

Taipei City, Taiwan