V2EX  ›  英汉词典

Knowledge Distillation

定义 Definition

知识蒸馏:一种机器学习/深度学习方法,把大型、复杂模型(“教师模型”)学到的知识转移到更小、更快的模型(“学生模型”)中,使学生模型在保持较好性能的同时更易部署(例如在手机、边缘设备上)。该术语也可泛指“把知识提炼成更精炼形式”的过程,但在当代语境中最常见于深度学习。

发音 Pronunciation (IPA)

/ˈnɑːlɪdʒ ˌdɪstɪˈleɪʃən/

例句 Examples

Knowledge distillation can make a model smaller and faster.
知识蒸馏可以让模型变得更小、更快。

By training the student to match the teacher’s soft probabilities, knowledge distillation often improves accuracy compared with training the small model alone.
通过让学生模型去匹配教师模型的“软概率”输出,知识蒸馏往往能让小模型的准确率优于只用小模型独立训练的结果。

词源 Etymology

distillation 原指“蒸馏”(通过加热与冷凝提纯液体),引申为“提炼、萃取精华”。knowledge distillation 把这种“从复杂混合物中提取精华”的意象借用到机器学习中,强调从大模型中“提炼”出可迁移的行为与信息,用于训练更轻量的模型。

相关词 Related Words

文献作品 Literary Works

  • Geoffrey Hinton, Oriol Vinyals, Jeff Dean:《Distilling the Knowledge in a Neural Network》(2015)
  • **Christian Szegedy et al.**:《Going Deeper with Convolutions》(2015,提出与“蒸馏/匹配软输出”相关的训练思想)
  • Janghoon Kim, Seonghoon Park, Nojun Kwak:《Paraphrasing Complex Network: Network Compression via Factor Transfer》(2018,蒸馏与迁移思想的相关研究)
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   725 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 12ms · UTC 19:19 · PVG 03:19 · LAX 11:19 · JFK 14:19
♥ Do have faith in what you're doing.