Компания Anthropic, основанная бывшими сотрудниками OpenAI, опубликовала системные промпты для своих новейших моделей искусственного интеллекта Claude. Этот неожиданный шаг приоткрыл завесу тайны над внутренним устройством больших языковых моделей (LLM) и сделал Anthropic единственной крупной ИИ-компанией, официально поделившейся такими инструкциями.
Системные промпты, обычно считающиеся проприетарной информацией, играют ключевую роль в формировании поведения и возможностей ИИ. Можно сказать, что Anthropic выложил на всеобщее обозрение свой фирменный рецепт приготовления искусственного интеллекта.
Опубликованный в понедельник релиз, датированный 12 июля 2024 года, включает подробные инструкции для моделей Claude 3.5 Sonnet, Claude 3 Opus и Claude 3 Haiku. Эти промпты содержат конкретные указания по поведению моделей, включая запреты на распознавание лиц и доступ к ссылкам, а также директивы по обработке спорных тем в духе того, что Anthropic считает объективностью.
Это не первый шаг Anthropic на пути к прозрачности. Еще в марте Аманда Аскелл (Amanda Askell), директор компании по ИИ, поделилась в соцсети X версией системного промпта Claude 3. Она также объяснила логику, стоящую за таким кондиционированием.
«Зачем вообще использовать системные промпты? Во-первых, они позволяют нам давать модели ’живую‘ информацию, например, текущую дату. Во-вторых, они позволяют немного настроить модель после обучения и подкорректировать поведение до следующей доводки. Этот системный промпт делает и то, и другое», — пояснила она в треде на X.
Решение Anthropic резко контрастирует с практикой других крупных ИИ-компаний вроде OpenAI, Meta или xAI, которые хранят свои системные промпты в строжайшем секрете. Впрочем, хакерам и взломщикам LLM удавалось извлечь эти инструкции — выяснилось, что у ChatGPT промпт на целых 1700 слов, а Grok-2 и вовсе вдохновлялся JARVIS из «Железного человека» и «Автостопом по галактике».
Промпты Anthropic теперь доступны через их приложения Claude и онлайн-платформы. Компания заявила о намерении регулярно обновлять и публиковать эти промпты, обеспечивая постоянный доступ к информации об эволюции методологий инструктирования ИИ.
Как стать лучшим промптером
Раскрытие системных промптов Anthropic не только помогает пользователям понять, как работают чат-боты, но и может помочь людям разобраться, как мыслят LLM и как пользователи могут направлять их мыслительный процесс с помощью более качественного ввода данных. LLM в своей основе — это невероятно сложные системы, прогнозирующие последовательности слов. Каждое слово влияет на генерацию последующего содержания, создавая впечатление осмысленного текста. Эти модели не обладают истинным пониманием, но их способность улавливать паттерны и взаимосвязи в языке поистине поразительна.
Таким образом, более грамотно составленный промпт может помочь пользователям расширить возможности чат-бота и добиться более точных, контекстуально уместных и целенаправленных результатов при взаимодействии с ИИ-моделями.
Рецепт идеального промпта — контекст
Обеспечение богатого контекста крайне важно для направления ИИ-моделей к генерации более точных и релевантных ответов. Промпты Anthropic демонстрируют важность детальной контекстуальной информации в формировании поведения ИИ.
Вот ключевая часть системного промпта Anthropic:
«Ассистент — это Claude, созданный Anthropic. Текущая дата — {}. База знаний Клода была обновлена в апреле 2024 года. Он отвечает на вопросы о событиях до и после апреля 2024 года так, как это делал бы хорошо информированный человек в апреле 2024 года, если бы он разговаривал с кем-то из указанной выше даты, и может сообщить об этом человеку, когда это уместно».
Заметьте, что Anthropic объясняет, как должен отвечать Claude. Таким образом, язык, тон и знания его промптов будут имитировать то, как общество пишет в 2024 году, а не то, как говорили Ромео и Джульетта во времена Шекспира.
Формулирование задач в четком контексте, включая соответствующую фоновую информацию, помогает модели генерировать ответы, которые больше соответствуют конкретным потребностям пользователя. Этот подход позволяет избежать общих или не относящихся к делу ответов. Предоставляя богатый контекст, пользователи позволяют модели лучше понять требования задачи, что приводит к улучшению результатов.
Например, пользователи могут попросить модель сгенерировать страшную историю, и она это сделает. Однако предоставление детальных характеристик этого стиля может значительно повысить качество результата. Те, кто идет еще дальше, добавляя примеры желаемого стиля письма или типа контента, могут еще больше уточнить понимание моделью инструкции и улучшить генерируемые результаты.
Разбивайте сложные запросы
Промпты Anthropic также раскрывают важность систематического подхода к сложным задачам, разбивая их на компоненты вместо решения всех частей сразу — как пользователи обычно делают при взаимодействии со своими любимыми чат-ботами.
Вот некоторые цитаты из Anthropic, которые затрагивают эту проблему:
«Когда сталкивается с математической, логической или другой задачей, требующей системного мышления, Claude обдумывает ее шаг за шагом, прежде чем дать окончательный ответ».
«Если пользователь просит выполнить очень длинную задачу, которую невозможно завершить в одном ответе, Claude предлагает выполнить задачу по частям и получить обратную связь от пользователя по мере выполнения каждой части задачи».
Для решения многогранных задач гораздо эффективнее направлять модель через последовательные этапы. Такой пошаговый подход может привести к более сфокусированным и точным ответам. Разбивка сложной проблемы на отдельные компоненты позволяет уточнять результаты на каждом этапе, опираясь на обратную связь от пользователя.
Идеальный подход, однако, заключается в использовании многошаговой техники, такой как Цепочка мыслей (Chain of Thoughts) или Скелет мыслей (Skeleton of Thoughts), проводя LLM через серию взаимосвязанных задач. Этот метод снижает вероятность галлюцинаций, структурируя процесс рассуждений модели на каждом этапе. Разбивая сложную задачу на последовательность более простых шагов, мы даем модели возможность выстроить логическую цепочку, где каждое промежуточное решение становится основой для следующего.
Многошаговая техника предполагает взаимодействие пользователей с моделью с помощью различных промптов, направляя процесс к удовлетворительному конечному результату.
Однако не у всех есть время или желание погружаться в длительный диалог с ИИ. Для таких случаев есть простой, но эффективный прием: попросите модель подробно изложить ход своих рассуждений перед тем, как дать окончательный ответ. Этот подход может значительно улучшить качество результата. Когда ИИ «думает вслух», излагая промежуточные выводы, это влияет на финальный ответ, делая его более обоснованным и точным.
Хотя такой метод и уступает по эффективности пошаговому руководству со стороны пользователя, он представляет собой разумный компромисс между качеством ответа и затраченным временем.
Говорите с чат-ботом четко, ясно и без лишних слов
Промпты Anthropic — отличный пример того, насколько важно использовать ясный, недвусмысленный язык при взаимодействии с ИИ.
Вот несколько цитат из Anthropic, поощряющих и использующих четкий язык:
«Клод заканчивает свой ответ, напоминая пользователю, что, хотя он старается быть точным, он может галлюцинировать в ответ на подобные вопросы. Он использует термин ‘галлюцинировать’ для описания этого, поскольку пользователь поймет, что это означает».
«Клод отвечает напрямую на все сообщения человека без ненужных утверждений или вводных фраз вроде ’Конечно!‘, ’Разумеется!‘, ’Абсолютно!‘, ’Отлично!‘, ’Конечно!‘ и т.д.».
Использование прямого, недвусмысленного языка помогает избежать неправильного толкования и устраняет ненужную сложность в тексте, который выводит ИИ.
Грамотно составленные промпты — это как подробная инструкция для ИИ. Они задают четкие правила игры, объясняя модели, как реагировать в различных ситуациях. Например, промпт может указать ИИ: «При обсуждении спорных тем, представляй различные точки зрения, не становясь на чью-либо сторону». Такие конкретные указания помогают избежать двусмысленности в ответах ИИ и делают его поведение более предсказуемым и соответствующим ожиданиям пользователя.
Указание желаемого тона и стиля гарантирует, что ответ соответствует предполагаемому стилю общения. И точно так же, как Stable Diffusion раньше полагался на негативные промпты, чтобы не генерировать элементы в своих изображениях, ИИ LLM также могут работать лучше, если пользователи говорят модели, чего НЕ делать и чего избегать.
Инструктируя модель придерживаться определенного тона и избегать ненужных фраз, пользователи могут повысить ясность и профессионализм ответов ИИ. Эта директива направляет модель на то, чтобы сосредоточиться на предоставлении содержательного контента без лишних слов.
Это также может помочь модели лучше рассуждать, если негативная инструкция не позволяет ей идти по определенному пути рассуждений.
Разделяйте свои инструкции тегами
Возможно, вы заметили, что Claude использует в своих промптах XML-теги — например, начинающиеся с
XML-теги (eXtensible Markup Language) обеспечивают четкую иерархическую структуру содержания, позволяя более точно контролировать то, как ИИ интерпретирует и использует различные разделы промпта. Anthropic использует XML-теги для создания отдельных «модулей» внутри промпта, каждый из которых служит определенной цели в руководстве поведением и ответами Клода.
Заключение некоторых инструкций в теги помогает модели выделить конкретный блок текста и понять, о чем он. Например, вы можете использовать такие теги, как <style>, <information> или <avoid_elements>, и Claude будет точно знать, что все внутри этих тегов должно рассматриваться как часть его стиля письма, контекстуальная информация, которую он должен учитывать, или элементы, которых он должен избегать упоминания.
Мир ИИ не стоит на месте, и Anthropic своим смелым шагом задал новую планку открытости в индустрии. Кто знает, может быть, скоро мы увидим, как другие гиганты ИИ последуют их примеру? А пока что только пользователи Claude получили уникальную возможность заглянуть за кулисы и научиться более эффективно общаться с искусственным интеллектом.
▼
Самые интересные и важные новости на нашем канале в Telegram