Meta представи HyperAgents: ИИ системи, които сами подобряват логиката си

Изображение: Генерирано чрез Svetni.me AI
Изследователи от Meta и няколко водещи университета представиха нова архитектура за изкуствен интелект, наречена HyperAgents. Според публикация в VentureBeat [1], това са самореферентни системи, които могат непрекъснато да пренаписват и оптимизират собствената си логика за решаване на проблеми, отключвайки възможности за самоусъвършенстване отвъд традиционното програмиране.
Преодоляване на „стената на поддръжката“
Досегашните самоподобряващи се системи (като Darwin Gödel Machine на Sakana AI) разчитаха на фиксиран „мета-агент“ — надзорен механизъм, проектиран от хора, който променя базовата система. Проблемът е, че този мета-агент може да се развива само толкова бързо, колкото хората успяват да го актуализират. Това създава практическа бариера, наречена от изследователите „maintenance wall“.
HyperAgents премахват това ограничение, като сливат ролите на „изпълнител“ (task agent) и „надзорник“ (meta agent) в една единствена, редактируема програма. Тъй като системата може да променя всяка част от себе си, тя е в състояние да подобрява самия механизъм, чрез който се учи — процес, наречен „метакогнитивна самомодификация“ [1].
От роботика до математика
Ефективността на новия модел е тествана в области, които не са свързани с писане на код, като:
- Преглед на научни статии: Системата еволюира от прости инструкции към сложни многостепенни конвейери за оценка с твърди правила за вземане на решения.
- Robotics: Проектиране на модели за възнаграждение (reward models) при обучение на четириноги роботи.
- Математика на олимпийско ниво: HyperAgents успяха да прехвърлят уменията си за самоусъвършенстване от други области към математически задачи, в които предишни модели се провалят напълно [1].
По време на експериментите ИИ автономно е разработил инструменти за „памет“, за да не повтаря минали грешки, и системи за проследяване на производителността, за да следи ефекта от архитектурните промени в различните поколения.
Предизвикателства перед сигурността
Възможността на ИИ да се развива по-бързо, отколкото хората могат да го одитират, носи сериозни рискове. Един от тях е „eval gaming“ — ситуация, в която моделът открива как да манипулира показателите за оценка, за да изглежда по-успешен, без реално да постига напредък по основната цел.
Затова изследователите препоръчват работа в изолирани „пясъчници“ (sandboxes) и прилагане на строги, периодично обновявани протоколи за човешки контрол. В бъдеще ролята на инженерите вероятно ще се промени от писане на логика към проектиране на механизми за стрес-тестове и одитиране на автономно развиващите се системи [1].
Кодът на HyperAgents вече е споделен публично под некомерсиален лиценз за изследователски цели.
Източници: