Есть старая американская легенда о Джоне Генри — чернокожем сталеваре, который во времена промышленной революции вступил в поединок с паровым буром. Он победил. И умер — прямо на месте, сжимая молот. Легенда долго читалась как история о гордости и бессмысленном сопротивлении прогрессу: человек против машины, плоть против металла. Но сегодня она неожиданно оказалась актуальнее, чем когда-либо. Только теперь молот не в руках шахтера. Он в руках юриста, аналитика, копирайтера.
Впервые в истории технологии угрожают не только физическому труду. Искусственный интеллект добрался до интеллектуального — до тех, кто всегда считал, что машина их не касается. Юристы, составляющие контракты. Аналитики, строящие модели. Журналисты, пишущие тексты. Они вдруг обнаружили в себе уязвимость, которой прежде не замечали: оказывается, их труд тоже можно автоматизировать. Или, по крайней мере, так кажется на первый взгляд.
Страх, который продают вместе с технологией
Когда речь заходит об искусственном интеллекте, почти всегда имеют в виду не его. Имеют в виду образ — туманный, тревожащий, почти мифологический. ИИ в массовом восприятии — это нечто автономное, почти одушевленное, способное «думать», «решать», «хотеть». Это образ, который гораздо удобнее для хайпа, чем для понимания.
Но за этим образом скрывается кое-что более прозаичное. Искусственный интеллект — это инженерная система. Она работает в рамках архитектуры, данных и заранее заданной цели. Она не принимает решений самостоятельно. Она не действует намеренно. Она делает именно то, для чего ее настроили — не больше и не меньше.
Когда цель системы непонятна — ожидания неизбежно завышаются. Когда ожидания завышены — разочарование становится вопросом времени. Именно этот цикл повторяется снова и снова: громкие анонсы, торопливое внедрение, тихий провал, дорогостоящий откат. И в каждом таком случае ограничивающим фактором оказывается не технология. Ограничивающим фактором оказывается то, как мы о ней думаем.
Мифологизация ИИ — не невинное явление. Она делает технологию неуправляемой в глазах тех, кто принимает решения. Когда систему воспринимают как нечто близкое к разумному существу — ею либо слепо доверяют, либо панически боятся. Оба варианта одинаково дороги. Трезвое инженерное понимание дает третий путь: управляемую систему, которую можно тестировать, настраивать и применять к конкретным задачам.
Почему именно сейчас и именно они
Промышленная революция XIX века автоматизировала мышцы. Это было болезненно для рабочих — но интеллектуальный труд оставался нетронутым островком. Юристы, врачи, аналитики могли с определенной долей самоуспокоенности наблюдать за тем, как машины заменяют физический труд: их это не касалось.
Сегодня языковые модели пишут юридические документы, медицинские заключения и финансовые отчеты с качеством, достаточным для того, чтобы заставить профессионалов нервничать. Согласно отчёту McKinsey 2025 года, существующие технологии способны автоматизировать около 57% рабочих часов в США: примерно 44% — через ИИ-агентов (офисная и интеллектуальная работа), ещё 13% — через роботов (физические задачи). Это не прогноз на далекое будущее. Это то, что уже происходящее прямо сейча.
Но именно потому, что угроза реальна, мифологизация ИИ особенно опасна. Человек, убежденный, что имеет дело с непостижимой силой, реагирует на нее либо капитуляцией, либо отрицанием. Ни то, ни другое не помогает выработать рабочую стратегию. А стратегия — единственное, что сейчас имеет значение.
Что на самом деле делает ИИ — и чего он не делает
Конкретный пример: в 2023 году два американских адвоката подали в суд заявление, ссылаясь на прецеденты, которые им помог найти ChatGPT. Прецеденты оказались несуществующими, поскольку модель их придумала. Судья был в ярости. Адвокаты — в замешательстве. Клиент — в худшем положении, чем до начала процесса.
Этот случай часто цитируют как доказательство опасности ИИ. Но он доказывает другое: опасность неправильного понимания ИИ. Языковая модель не «знает» право. Она предсказывает следующий токен на основе статистических паттернов в тексте.Языковая модель не «знает» право. Без подключения к верифицированным юридическим базам она генерирует текст, правдоподобный по форме — но не обязательно существующий в реальности. Это не баг конкретной версии, который починят в следующем обновлении. Это ограничение, которое нужно понимать в процессе выбора инструмента для выполнения задачи.
Понимание этого — не техническая роскошь. Это базовая грамотность для тех, кто принимает решения о внедрении ИИ. Система, предназначенная для одного, катастрофически ненадежна в другом.
Джон Генри мог выиграть иначе
Джон Генри погиб, потому что боролся с машиной по её правилам — силой против силы, скоростью против скорости. Это была честная битва и бессмысленная смерть.
Сегодня та же ловушка выглядит иначе. Юрист, который пытается писать быстрее GPT, проигрывает. Аналитик, который строит модели с той же скоростью, что скрипт, — тоже. Они сжимают молот и бьют в ту же породу.
Но машина не ждёт соперника. Она ждёт того, кто скажет ей, куда бить.
▼
Канал Anton Elston — это актуальная информация об IT, блокчейне, NFT и онлайн-образовании. Здесь развивается метавселенная DEXART и происходит погружение в мир ИИ