Халюцинация (Hallucination)

В контекста на ИИ, халюцинация възниква, когато голям езиков модел (LLM) генерира фактологично неправилна, безсмислена или откъсната от реалността информация, докато я представя с висока увереност.

Защо моделите халюцинират?

LLM са вероятностни, а не детерминистични. Те са обучени да предвиждат най-вероятната следваща дума, а не да извличат факти от база данни. Ако данните за обучение на модела са двусмислени или ако подканата (промпт) е подвеждаща, моделът може да даде приоритет на езиковата плавност пред фактологичната точност.

Стратегии за смекчаване през 2026 г.

  • RAG (Retrieval-Augmented Generation): Принуждаване на модела да направи справка с доверен документ, преди да отговори.
  • RLHF (Reinforcement Learning from Human Feedback): Обучение на модела да бъде „честен“ и да казва „Не знам“, когато не е сигурен.
  • Chain-of-Thought (Верига от мисли): Насърчаване на модела да показва логическите си стъпки.

Въпреки значителния напредък, халюцинациите остават основно предизвикателство за използването на генеративен ИИ във високорискови области.

Споменавания в статии