由Hinton等三人合著的《Distilling the Knowledge in a Neural Network》曾因缺乏创新性被拒稿,却提出了关键的知识蒸馏技术。该技术通过软目标替代硬目标,在不损失准确性的前提下大幅压缩模型参数,使复杂模型能够在资源受限设备上运行。论文提出的知识迁移框架已被广泛应用,成为AI领域的重要基础之一。尽管最初未获顶级会议认可,但其实际应用效果显著,推动了人工智能技术的普及与发展。
来源:https://mp.weixin.qq.com/s/Uw9rScSJfUqrQc0KFULjQg