🦞 CitationClaw 论文引用分析报告

Be Your Own Teacher: Improve the Performance of Convolutional Neural Networks via Self Distillation

生成时间: 2026年03月13日 12:02

501

总引用数

30

活跃学者

6

高被引论文

2024

引用高峰年

📈 引用年份趋势

📊 被引次数分布

🎓 活跃学者分析 (Top 20)

L Li

14 篇 10454 引用

aclanthology.org, ieeexplore.ieee.org

B Yu

5 篇 5368 引用

ieeexplore.ieee.org, elsevier

J Gou

5 篇 5355 引用

ieeexplore.ieee.org, elsevier

H Jiang

2 篇 5280 引用

arxiv.org

D Tao

3 篇 5269 引用

aclanthology.org, springer

SJ Maybank

1 篇 5205 引用

springer

C Li

5 篇 5034 引用

ieeexplore.ieee.org, nature.com

K Weng

1 篇 4986 引用

arxiv.org

Y Geng

1 篇 4986 引用

arxiv.org

Z Ke

1 篇 4986 引用

arxiv.org

S Kim

8 篇 2703 引用

springer, taylorfrancis.com

Z Dong

2 篇 2293 引用

openaccess.thecvf.com, taylorfrancis.com

Z Yao

2 篇 2289 引用

arxiv.org, taylorfrancis.com

A Gholami

1 篇 2275 引用

taylorfrancis.com

Y Wang

29 篇 2042 引用

aclanthology.org, ieeexplore.ieee.org

P Buzzega

2 篇 1769 引用

proceedings.neurips.cc, ieeexplore.ieee.org

M Boschini

2 篇 1769 引用

proceedings.neurips.cc, ieeexplore.ieee.org

A Porrello

4 篇 1720 引用

proceedings.neurips.cc, ieeexplore.ieee.org

L Zhang

17 篇 1459 引用

ieeexplore.ieee.org, ojs.aaai.org

L Wang

15 篇 1350 引用

aclanthology.org, ieeexplore.ieee.org

🔥 高被引引用论文 (Top 15)

  • 1. Knowledge distillation: A survey

    J Gou, B Yu, SJ Maybank

    被引 5205 次
  • 2. YOLOv6: A single-stage object detection framework for industrial applications

    C Li, L Li, H Jiang

    被引 4986 次
  • 3. A survey of quantization methods for efficient neural network inference

    A Gholami, S Kim, Z Dong

    被引 2275 次
  • 4. Dark experience for general continual learning: a strong, simple baseline

    P Buzzega, M Boschini, A Porrello

    被引 1536 次
  • 5. Knowledge distillation and student-teacher learning for visual intelligence: A review and new outloo...

    L Wang, KJ Yoon

    被引 1159 次
  • 6. Meta pseudo labels

    H Pham, Z Dai, Q Xie

    被引 1084 次
  • 7. Towards understanding ensemble, knowledge distillation and self-distillation in deep learning

    Z Allen-Zhu, Y Li

    被引 636 次
  • 8. R-drop: Regularized dropout for neural networks

    L Wu, J Li, Y Wang

    被引 634 次
  • 9. Structured pruning for deep convolutional neural networks: A survey

    Y He, L Xiao

    被引 491 次
  • 10. Regularizing class-wise predictions via self-knowledge distillation

    S Yun, J Park, K Lee

    被引 448 次
  • 11. SPINN: Synergistic progressive inference of neural networks over device and cloud

    S Laskaridis, SI Venieris, M Almeida

    被引 425 次
  • 12. Self-supervised learning in remote sensing: A review

    Y Wang, CM Albrecht, NAA Braham

    被引 410 次
  • 13. Self-distillation: Towards efficient and compact neural networks

    L Zhang, C Bao, K Ma

    被引 393 次
  • 14. Delving deep into label smoothing

    CB Zhang, PT Jiang, Q Hou

    被引 388 次
  • 15. Comparing kullback-leibler divergence and mean squared error loss in knowledge distillation

    T Kim, J Oh, NY Kim

    被引 384 次