Защо AI компаниите искат да се страхувате от тях
Според репортаж на BBC Future [1], водещите AI компании умишлено подхранват страховете около изкуствения интелект, за да контролират наратива и регулаторната среда. Вместо да се фокусират върху настоящите проблеми като авторски права, екологични щети и трудова експлоатация, те акцентират върху екзистенциални заплахи, които ги позиционират едновременно като създатели и единствени спасители.
Стратегията на страха
Anthropic наскоро обяви, че новият им модел Claude Mythos е твърде опасен за масово разпространение, твърдейки, че притежава кибервъзможности, превъзхождащи човешките експерти. Експерти по сигурността обаче изразяват съмнения в тези твърдения. Професор Шанън Валор от Единбургския университет и д-р Емили М. Бендър от Вашингтонския университет аргументират, че представянето на AI като „свръхестествена опасност“ кара обществото да се чувства безпомощно.
Според тях този маркетинг на страха има две основни цели:
- Отвличане на вниманието: Насочване на фокуса далеч от реални вреди като дезинформация и пристрастия.
- Регулаторен монопол: Принуждаване на правителствата да разчитат единствено на лидерите на OpenAI (Сам Алтман) и Anthropic (Дарио Амодей) за съвети и регулации.
Парадоксът на мотивацията
Докато OpenAI и Anthropic първоначално бяха основани с фокус върху безопасността на човечеството, настоящият им стремеж към публично предлагане на акции променя техните стимули. Страхът от „края на света“ ефективно функционира като реклама за мощта на техните продукти, привличайки инвестиции в стремежа им към доминиране на пазара.

Изображение: Генерирано с AI
Докато индустрията говори за екзистенциален риск, реалните етични и практически въпроси на технологията остават нерешени, позволявайки на корпорациите да избягват отговорност за текущите си действия.
Източници:
[1]: Why AI companies want you to be afraid of them - BBC Future