Похоже, что гонка искусственного интеллекта выходит на новый уровень, и теперь в ней участвуют не только техногиганты, но и правительственные структуры. Министерство торговли США решило не оставаться в стороне и заключило соглашение с OpenAI и Anthropic — компаниями, стоящими за ChatGPT и Claude.
Что происходит?
Национальный институт стандартов и технологий США (NIST) объявил о начале сотрудничества с ведущими разработчиками ИИ в рамках недавно созданного Института безопасности искусственного интеллекта (AISI). Звучит как очередная бюрократическая структура, но на деле это может стать поворотным моментом в развитии технологий ИИ.
Зачем это нужно?
Цель соглашения — дать правительственным экспертам доступ к новым моделям ИИ еще до их публичного релиза. Представьте, что вы получаете возможность заглянуть за кулисы главного технологического шоу современности. Именно это и произойдет: AISI сможет оценить возможности и риски ИИ-моделей до того, как они попадут в руки обычных пользователей.
Что говорят участники?
Элизабет Келли (Elizabeth Kelly), директор AISI, не скрывает оптимизма:
«Безопасность — ключевой фактор для прорывных инноваций. Эти соглашения — только начало, но они являются важной вехой в нашей работе по ответственному управлению будущим ИИ».
Джек Кларк (Jack Clark), соучредитель Anthropic, также поддерживает инициативу:
«С нетерпением ждем возможности провести предварительное тестирование нашей следующей модели с U.S. AISI. Тестирование третьей стороной — важнейшая часть экосистемы ИИ».
Сэм Альтман (Sam Altman), генеральный директор OpenAI, тоже не остался в стороне:
«Мы рады, что достигли соглашения с Институтом безопасности ИИ США о предварительном тестировании наших будущих моделей. По многим причинам мы считаем важным, чтобы это происходило на национальном уровне».
Почему это важно?
Вопрос безопасности ИИ сейчас стоит как никогда остро. Многие ведущие эксперты и руководители покинули OpenAI из-за опасений по поводу ее практик, некоторые даже основали конкурирующие компании, ориентированные на более осторожный подход к разработке ИИ.
Правительства тоже обеспокоены. AISI был создан в октябре 2023 года администрацией Байдена после издания масштабного указа, направленного на регулирование разработки искусственного интеллекта. В феврале этого года были объявлены первые участники консорциума AISIC, куда вошли такие гиганты, как OpenAI, Anthropic, Google, Apple, NVIDIA, Microsoft и Amazon.
Что дальше?
AISI планирует делиться результатами своих исследований с европейскими коллегами из британского Института безопасности ИИ. Это может стать началом глобального сотрудничества в области регулирования и безопасности искусственного интеллекта.
Похоже, что эра бесконтрольного развития ИИ подходит к концу. Теперь за каждым шагом техногигантов будут следить правительственные эксперты. Остается надеяться, что это приведет к более безопасному и ответственному развитию технологий, а не к бюрократическим проволочкам и замедлению прогресса.
▼
Самые интересные и важные новости на нашем канале в Telegram