Блокчейн, финтех, новая экономика, блэкджек

Анатомия фейка: сравнимый с человеческим ИИ потребует энергию всей Солнечной системы

Новости/Статьи

Пользователь соцсети X под ником Alex Prompter опубликовал 14 января утекшие внутренние документы OpenAI с сенсационным заявлением: Илья Суцкевер (Ilya Sutskever) — один из основателей компании и бывший главный научный сотрудник — якобы доказал физическую невозможность создания искусственного общего интеллекта.

Суцкевер считается одним из ведущих специалистов по нейронным сетям в мире. Он участвовал в создании GPT и был ключевой фигурой в развитии ChatGPT. В мае 2024 года он покинул OpenAI для создания собственной компании Safe Superintelligence, посвященной безопасной разработке ИИ.

AGI (Artificial General Intelligence) — это гипотетическая система искусственного интеллекта, способная выполнять любые интеллектуальные задачи на уровне человека или превосходить его. В отличие от современных узкоспециализированных алгоритмов вроде ChatGPT или системы распознавания изображений, AGI должен обладать универсальными когнитивными способностями.

Принцип Ландауэра: почему забывание стоит энергии

Основа спекуляций — принцип Ландауэра, открытый физиком IBM Рольфом Ландауэром в 1961 году. Этот закон связывает информацию с физикой и устанавливает минимальную энергетическую цену за стирание данных.

Представьте компьютерную память как набор переключателей, каждый из которых может находиться в положении «0» или «1». Когда мы стираем бит информации — например, принудительно устанавливаем его в «0» независимо от предыдущего состояния — мы физически уничтожаем различие между этими двумя состояниями.

Согласно второму закону термодинамики, общая энтропия (мера беспорядка) во Вселенной никогда не может уменьшаться. Стирание бита уменьшает энтропию в компьютере, поэтому для сохранения баланса энтропия окружающей среды должна увеличиться. Это увеличение происходит через выделение тепла.

Минимальная энергия стирания описывается формулой E ≥ kT ln 2, где k — постоянная Больцмана (1,38×10-23 Дж/К), T — температура в кельвинах, а ln 2 ≈ 0,693 — натуральный логарифм двойки. При комнатной температуре (300К) это составляет ничтожные 2,9×10-21 Дж на бит — в миллион миллиардов раз меньше энергии, необходимой для подъема пылинки на миллиметр.

Критически важно: принцип действует только для необратимых операций стирания информации. Логически обратимые операции, где каждому входу соответствует уникальный выход, теоретически могут выполняться без энергозатрат.

От микроватт к энергии Солнечной системы

В приложенных к публикации профессионально оформленных слайдах утверждается, что AGI потребует 1018 необратимых операций в секунду. Умножив на энергию Ландауэра, авторы получают теоретический минимум 2900 Вт — в 145 раз больше энергопотребления человеческого мозга.

Затем «расчеты» усложняются. С учетом реальных инженерных ограничений — охлаждения (увеличивает потребление в 10 раз), передачи данных между процессором и памятью (в 50 раз), коррекции ошибок (в 2 раза) — авторы фейка получают 2,9 МВт для одной системы AGI. Это энергопотребление небольшого города для имитации одного человеческого интеллекта.

Но главная «бомба» — в масштабировании. Согласно поддельным документам, для обслуживания всего человечества потребуются миллиарды систем AGI. Авторы утверждают, что это приведет к энергопотреблению 1021 Вт — в миллион раз больше всей энергии, производимой человечеством, и якобы превышает энергетические ресурсы всей Солнечной системы.

Подозрительно качественная подделка

К публикации приложены профессионально выглядящие документы: презентации с графиками, якобы внутренняя переписка совета директоров OpenAI, скриншоты из Slack с обсуждениями руководства. В «документах» утверждается, что Сэм Альтман (Sam Altman) признавал правоту расчетов Суцкевера, но называл их «технически верными, но стратегически неуместными».

Рецепт фейка: научный факт × «реалистичные» коэффициенты = абсурдный результат

Поддельные материалы включают даже детализированную хронологию якобы произошедшего в ноябре 2023 года кризиса в совете директоров OpenAI из-за термодинамических ограничений. Качество подделки выдает её искусственное происхождение: слишком много штампов «CONFIDENTIAL», профессиональный дизайн презентаций и правдоподобные, но сфабрикованные внутренние переписки.

Научная критика

Заявления Alex Prompter немедленно вызвали критику экспертов. Аналитик Roko назвал идею о невозможности AGI «самой идиотской вещью об ИИ, которую когда-либо читал».

Специалист TokyoL7G объяснил фундаментальную ошибку: «Человеческий мозг работает при мощности около 20 Вт. Не потому, что он нарушает термодинамику, а потому, что представляет собой чрезвычайно эффективную асинхронную систему».

Эксперт 9DATTM указал на методологические ошибки: неправомерное приравнивание предела Ландауэра к требованиям интеллекта, игнорирование алгоритмического сжатия и возможности энергоэффективных обратимых вычислений.

Реальность энергопотребления ИИ

Современные системы ИИ действительно требуют колоссальных энергозатрат, но это связано с несовершенством существующих технологий, а не с фундаментальными физическими ограничениями. Обучение GPT-3 потребовало около 1300 МВт·ч, дата-центры для ИИ расходуют мегаватты постоянно — это энергопотребление целых городов.

Однако человеческий мозг доказывает возможность высокоэффективных вычислений: 86 млрд нейронов, обрабатывающих сложнейшую информацию при потреблении всего 20 Вт. Принцип Ландауэра не препятствует созданию энергоэффективных архитектур — он лишь устанавливает теоретический минимум для необратимых операций стирания.

Отсутствие подтверждений

Ни Илья Суцкевер, ни OpenAI не подтверждали существование подобных исследований. Публичные высказывания Суцкевера от мая 2024 года выражают уверенность в достижимости AGI с акцентом на безопасность. Сайт его новой компании Safe Superintelligence фокусируется на создании безопасного ИИ без упоминаний термодинамических барьеров.

Представленные материалы — изощренная дезинформация, основанная на неточном применении физических принципов и экстраполяции сомнительных допущений до абсурда. Подделка демонстрирует растущую изощренность фальшивых утечек в эпоху ИИ, но научное сообщество единодушно отвергает подобные псевдонаучные спекуляции о энергетической невозможности создания эффективного искусственного интеллекта.

Мнение ИИ

Анализ исторических паттернов дезинформации показывает интересную закономерность: самые эффектные научные фейки всегда эксплуатируют реальные физические принципы. Холодный синтез 1989 года тоже базировался на настоящих ядерных реакциях, но с фальшивыми данными. Принцип Ландауэра здесь играет роль идеального «крючка» — он достаточно сложен, чтобы большинство не могли его проверить, но достаточно фундаментален, чтобы звучать убедительно.

Макроэкономический контекст создания подобных фейков заслуживает внимания. Индустрия ИИ переживает период максимальных инвестиций и ожиданий — классическую фазу пузыря, когда любые сомнения в технологической достижимости могут обвалить миллиардные вложения. Такая информационная атака потенциально способна повлиять на биржевые котировки технологических гигантов. Остается вопрос: кому выгодно подрывать веру в AGI именно сейчас?


Самые интересные и важные новости на нашем канале в Telegram

Понравилась статья?

Подпишись на e-mail рассылку и будь всегда в курсе последних событий
BTC
968391.83%
ETH
3363.091.04%
BCH
626.113.75%
XRP
2.12-1.42%
Ту зе МУН