Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs 近年來 Transformer 的崛起,普遍認為 self-attention 在影像領域可以表現得比 CNN 更好,這篇發表在 CVPR 2022 上的研究表示認為這不是因為 Self-attention 的設計形式(query-key-value),而是因為其有效感受野特別大,因此作者提出了提出了超大 kernel 的模型,在一系列的實驗下證明較大的卷積核在現代模型優化的設計下,計算量並不會提升多少且在一些 downstream tasks 的效能更甚於較深但 kernel 較小的網路架構。
