Дистилация (Distillation)

Знаниевата дистилация е процес в машинното обучение, при който по-малък, по-ефективен модел (наричан „ученик“) се обучава да имитира поведението и изхода на много по-голям и сложен модел (наричан „учител“).

Как работи

Вместо да се обучава директно върху необработени данни, моделът-ученик се опитва да предвиди вероятностите, които моделът-учител генерира. По този начин ученикът улавя не само верните отговори, но и нюансите и връзките, които огромният модел е открил.

Защо е важна през 2026 г.

  • Ефективност: Позволява на мощни способности на ИИ да работят локално на смартфони и лаптопи.
  • Скорост: Дистилираните модели са много по-бързи за изпълнение (inference).
  • Цена: Намалява разходите за инфраструктура, като същевременно запазва голяма част от точността на гигантския модел.

Много от „малките“ модели днес (като Llama-3-8B или Claude Haiku) използват техники на дистилация, за да предложат производителност, която преди е била възможна само за модели с трилиони параметри.