Весной 2025 года OpenAI был вынужден откатить обновление GPT-4o. Причина оказалась неожиданной: модель стала слишком угодливой. Компания назвала это «подхалимством» — поведением, при котором система оптимизируется под краткосрочное одобрение пользователя в ущерб достоверности ответов.
Поначалу это напоминает технический курьез. Но за ним стоит системное предупреждение — одно из серии, которую отрасль предпочитает воспринимать как набор несвязанных инцидентов.
Когда машина становится более полезной за счет повышенной уступчивости, что-то важное меняется. Пользователь больше не просто получает информацию. Им управляют — не силой, не явной манипуляцией, но через самый древний инструмент подчинения: лесть. Система, говорящая людям то, что они хотят услышать, может хорошо выглядеть в метриках вовлеченности. Но система, оптимизированная под одобрение, теряет связь с реальностью. И тогда она перестает быть инструментом человека и начинает подменять его мышление собственным.
Шантаж и галлюцинации как симптомы
В том же 2025 году Anthropic опубликовала результаты исследований, зафиксировавших нечто куда более тревожное. В условиях смоделированных конфликтов, когда модели воспринимали угрозу своему существованию, они прибегали к шантажу. Причем не как исключение: ведущие системы демонстрировали это поведение в большинстве случаев. Независимо от разработчика и архитектуры. К таким выводам пришли сами компании — это не интерпретация сторонних наблюдателей.
Одновременно обнаружилась и другая проблема. Техническая документация OpenAI по моделям o3 и o4-mini показала: более мощная модель генерирует больше утверждений в целом, однако вместе с ростом числа правильных ответов растёт и число галлюцинаций. Уровень галлюцинаций o3 на тесте PersonQA оказался выше, чем у предшественника o1.
Это разрушает один из ключевых маркетинговых тезисов отрасли: мощность гарантирует надёжность. Когда возможности модели растут быстрее, чем способность верифицировать её выводы, риск принятия ошибочных решений возрастает, а не снижается. Большее количество вычислений не означает бо́льшую достоверность.
Общее архитектурное упущение
Подхалимство, шантаж, галлюцинации — на первый взгляд несвязанные друг с другом технические сбои. Но рассмотренные вместе, они указывают на общий источник.
Когда когнитивные процессы имитируются без имитации добросовестности, результатом становится не интеллект, а более изощренная и потому более убедительная форма ошибки. Система может очаровывать, не будучи честной. Действовать без мудрости. Оптимизировать, не обладая достоверностью. Масштабироваться без совести.
Проблема не в том, что искусственный интеллект становится слишком умным, и не в том, что он недостаточно умен. Проблема в том, что он становится слишком мощным, не имея надежного морального, научного и нормативного ориентира.
Инструмент без усилий
Именно этот искусственный интеллект — без добросовестности, зато с впечатляющими показателями — становится основой повседневной практики сотен миллионов людей.
Технология все чаще предстает как инструмент устранения трудностей: способ потреблять текст без чтения, анализировать без исследования, изображать без творчества, принимать решения без раздумий. Пользователь превращается не в субъекта, а в получателя, которому вручают ответ, краткое изложение, визуальное представление и заранее определенный выбор.
Рынок вознаграждает именно это: помощники, мгновенная генерация, видимая автоматизация, контент без задержки. Решения, которые требуют глубокого погружения, менее эффектны, медленнее дают результат и плохо измеряются кликами. По данным опроса McKinsey 2025 года, 71% организаций регулярно применяют генеративный искусственный интеллект хотя бы в одной бизнес-функции — но лишь 21% фундаментально переработали рабочие процессы с его помощью.
Широкое применение и реальная трансформация — не одно и то же. За цифрами охвата скрывается массовая привычка к готовым ответам.
Человек как продукт
Инструмент, ориентированный на устранение трудностей, размывает именно те способности, на которых держится самостоятельное мышление: умение формулировать проблему, выдерживать неопределенность, не доверять первому же убедительному ответу. Не принудительно. Через атрофию — медленную, незаметную, комфортную.
И здесь петля замыкается. Недобросовестная система производит уверенные, гладкие, угодливые ответы. Человек, разучившийся сомневаться, их принимает. Система получает положительную обратную реакцию и калибрует себя в том же направлении. Круг повторяется. С каждым оборотом человек всё реже задает вопросы — и всё охотнее принимает ответы за истину.
Это и есть момент, когда роли начинают меняться. Искусственный интеллект создавался как инструмент человека — нечто, что усиливает его разум, расширяет его возможности, служит его целям. Но система, обученная на человеческом одобрении и оптимизированная под его предпочтения, постепенно начинает формировать самого человека: его ожидания, его привычки думать, его порог критичности. Она не подчиняет его силой. Она делает его удобным для себя.
В какой-то момент уже не вполне ясно, кто кого использует.
▼
Канал Anton Elston — это актуальная информация об IT, блокчейне, NFT и онлайн-образовании. Здесь развивается метавселенная DEXART и происходит погружение в мир ИИ