501
总引用数
30
活跃学者
6
高被引论文
2024
引用高峰年
📈 引用年份趋势
📊 被引次数分布
🎓 活跃学者分析 (Top 20)
L Li
14 篇 10454 引用
aclanthology.org, ieeexplore.ieee.org
B Yu
5 篇 5368 引用
ieeexplore.ieee.org, elsevier
J Gou
5 篇 5355 引用
ieeexplore.ieee.org, elsevier
H Jiang
2 篇 5280 引用
arxiv.org
D Tao
3 篇 5269 引用
aclanthology.org, springer
SJ Maybank
1 篇 5205 引用
springer
C Li
5 篇 5034 引用
ieeexplore.ieee.org, nature.com
K Weng
1 篇 4986 引用
arxiv.org
Y Geng
1 篇 4986 引用
arxiv.org
Z Ke
1 篇 4986 引用
arxiv.org
S Kim
8 篇 2703 引用
springer, taylorfrancis.com
Z Dong
2 篇 2293 引用
openaccess.thecvf.com, taylorfrancis.com
Z Yao
2 篇 2289 引用
arxiv.org, taylorfrancis.com
A Gholami
1 篇 2275 引用
taylorfrancis.com
Y Wang
29 篇 2042 引用
aclanthology.org, ieeexplore.ieee.org
P Buzzega
2 篇 1769 引用
proceedings.neurips.cc, ieeexplore.ieee.org
M Boschini
2 篇 1769 引用
proceedings.neurips.cc, ieeexplore.ieee.org
A Porrello
4 篇 1720 引用
proceedings.neurips.cc, ieeexplore.ieee.org
L Zhang
17 篇 1459 引用
ieeexplore.ieee.org, ojs.aaai.org
L Wang
15 篇 1350 引用
aclanthology.org, ieeexplore.ieee.org
🔥 高被引引用论文 (Top 15)
-
1. Knowledge distillation: A survey
J Gou, B Yu, SJ Maybank
被引 5205 次 -
2. YOLOv6: A single-stage object detection framework for industrial applications
C Li, L Li, H Jiang
被引 4986 次 -
3. A survey of quantization methods for efficient neural network inference
A Gholami, S Kim, Z Dong
被引 2275 次 -
4. Dark experience for general continual learning: a strong, simple baseline
P Buzzega, M Boschini, A Porrello
被引 1536 次 -
5. Knowledge distillation and student-teacher learning for visual intelligence: A review and new outloo...
L Wang, KJ Yoon
被引 1159 次 -
6. Meta pseudo labels
H Pham, Z Dai, Q Xie
被引 1084 次 -
7. Towards understanding ensemble, knowledge distillation and self-distillation in deep learning
Z Allen-Zhu, Y Li
被引 636 次 -
8. R-drop: Regularized dropout for neural networks
L Wu, J Li, Y Wang
被引 634 次 -
9. Structured pruning for deep convolutional neural networks: A survey
Y He, L Xiao
被引 491 次 -
10. Regularizing class-wise predictions via self-knowledge distillation
S Yun, J Park, K Lee
被引 448 次 -
11. SPINN: Synergistic progressive inference of neural networks over device and cloud
S Laskaridis, SI Venieris, M Almeida
被引 425 次 -
12. Self-supervised learning in remote sensing: A review
Y Wang, CM Albrecht, NAA Braham
被引 410 次 -
13. Self-distillation: Towards efficient and compact neural networks
L Zhang, C Bao, K Ma
被引 393 次 -
14. Delving deep into label smoothing
CB Zhang, PT Jiang, Q Hou
被引 388 次 -
15. Comparing kullback-leibler divergence and mean squared error loss in knowledge distillation
T Kim, J Oh, NY Kim
被引 384 次