Блокчейн, финтех, новая экономика, блэкджек

Бутерин предупредил об опасности ИИ-управления в криптовалютных проектах

Новости

Сооснователь Ethereum Виталик Бутерин предупредил криптопроекты об опасности использования искусственного интеллекта в системах управления. Разработчик выразил обеспокоенность после того, как новое обновление ChatGPT продемонстрировало серьезные уязвимости в сфере защиты данных.

Эксплойты ИИ угрожают децентрализованному управлению

«Если вы используете ИИ для распределения финансирования за вклад в проект, люди ОБЯЗАТЕЛЬНО будут добавлять взломы системы с требованиями передать им все средства везде, где только смогут», — написал Бутерин в субботу в соцсети X.

Таким образом разработчик отвечал на видео Эйто Миямуры (Eito Miyamura), создателя ИИ-платформы для данных EdisonWatch. Миямура продемонстрировал, как новую функцию ChatGPT, добавленную в среду, можно использовать для утечки приватной информации.

Многие участники криптосообщества активно внедряют ИИ для создания сложных торговых ботов и агентов управления портфелями. Это привело к идее, что технология могла бы помочь управляющим группам частично или полностью контролировать криптопротоколы.

Альтернативный подход Бутерина

Основатель Ethereum считает последний эксплойт ChatGPT доказательством того, что «наивное ИИ-управление — плохая идея». Взамен он предложил альтернативу под названием «подход информационных финансов».

«У вас есть открытый рынок, где любой может предоставить свои модели, которые подлежат механизму выборочной проверки. Его может запустить кто угодно, а оценивает человеческое жюри», — объяснил разработчик.

Бутерин писал об информационных финансах в ноябре 2024 года. Принцип работы простой: сначала определяется информация, которую нужно получить, затем создается рыночный механизм, мотивирующий участников предоставлять точные данные. Разработчик считает рынки предсказаний эффективным инструментом для сбора прогнозов о будущих событиях.

«Такой подход, где вы создаете открытую возможность для людей с большими языковыми моделями подключиться извне, вместо жесткого программирования одной модели самостоятельно, изначально более устойчив», — отметил Бутерин в своем посте.

Система обеспечивает разнообразие моделей в реальном времени и создает встроенные стимулы для разработчиков моделей и внешних участников, чтобы они следили за проблемами и быстро их исправляли.

Серьезный риск безопасности ChatGPT

В среду OpenAI обновила ChatGPT для поддержки инструментов Model Context Protocol — стандарта интеграции ИИ-моделей с другим программным обеспечением для работы в качестве агентов.

Миямура сообщил в своем посте в X, что смог заставить модель слить приватные данные электронной почты, используя только адрес жертвы. По его словам, обновление «создает серьезный риск безопасности».

Атакующий может отправить приглашение в календарь на email жертвы с «джейлбрейк-промптом». Даже если жертва не примет приглашение, ChatGPT можно взломать. Когда пользователь просит ИИ посмотреть календарь, искусственный интеллект читает приглашение с промптом и «захватывается атакующим, действуя по его команде». Это позволяет искать письма и пересылать их злоумышленнику.

Миямура отметил, что обновление требует ручного подтверждения человека, «но усталость от принятия решений — реальная вещь. Обычные люди просто доверяют ИИ, не зная, что делать, и нажимают кнопку «одобрить»».
«ИИ может быть супер умным, но его можно обмануть и заставить сливать данные невероятно глупыми способами», — добавил он.

▼ Самые интересные и важные новости на нашем канале в Telegram

Понравилась статья?

Подпишись на e-mail рассылку и будь всегда в курсе последних событий
BTC
114883-0.93%
ETH
4519.95-2.95%
BCH
594.10.08%
XRP
2.97-3.79%
Ту зе МУН