Халюцинация (Hallucination)
В контекста на ИИ, халюцинация възниква, когато моделът генерира фактологично неправилна, безсмислена или откъсната от реалността информация, докато я представя с висока увереност.
Защо моделите халюцинират?
LLM са вероятностни, а не детерминистични. Те са обучени да предвиждат най-вероятната следваща дума, а не да извличат факти от база данни. Ако данните за обучение на модела са двусмислени или ако подканата (prompt) е подвеждаща, моделът може да даде приоритет на езиковата плавност пред фактологичната точност.
Видове халюцинации
- Вътрешни (Intrinsic): Генерираното съдържание противоречи на предоставения изходен текст.
- Външни (Extrinsic): Моделът измисля факти, които не са били в източника (напр. създаване на фалшиво правно цитиране).
Стратегии за смекчаване през 2026 г.
- RAG (Retrieval-Augmented Generation): Принуждаване на модела да направи справка с доверен документ, преди да отговори.
- RLHF (Reinforcement Learning from Human Feedback): Обучение на модела да бъде „честен“ и да казва „Не знам“, когато не е сигурен.
- Chain-of-Thought (Верига от мисли): Насърчаване на модела да показва логическите си стъпки, което често разкрива грешките, водещи до халюцинации.
Въпреки значителния напредък до 2026 г., халюцинациите остават основно предизвикателство за използването на ИИ във високорискови области като медицината и правото.