Депутаты Госдумы от фракции «Новые люди» во главе с вице-спикером Владиславом Даванковым направили письмо руководителю Федеральной антимонопольной службы Максиму Шаскольскому с предложением обязать голосовых роботов раскрывать свою природу с первых секунд звонка.
По данным ТАСС, парламентарии фиксируют массовое распространение звонков от ИИ-систем, которые не только не предупреждают абонента о своей природе, но и намеренно представляются человеческими именами — «Меня зовут Анна», «Я Иван из банка». По мнению депутатов, такая практика вводит граждан в заблуждение, подрывает доверие к телефонным звонкам в целом и создаёт ощущение манипулятивного воздействия.
Что предлагают депутаты
Авторы письма предлагают внести изменения в федеральный закон «О рекламе». Конкретные меры сводятся к двум требованиям:
- обязательное уведомление в начале любого автоматизированного звонка о том, что разговор ведёт голосовой робот;
- запрет для ИИ-систем представляться человеческими именами или иным способом создавать у абонента впечатление общения с живым оператором.
Гражданин должен с первых секунд разговора понимать, с кем — или чем — он говорит, и самостоятельно решать, продолжать диалог или нет, подчеркивается в документе.
Депутаты рассчитывают, что принятие поправок повысит прозрачность телефонных коммуникаций, укрепит защиту прав потребителей и поможет снизить число случаев телефонного мошенничества. Технически реализовать требование несложно: голосовое предупреждение в начале звонка — стандартная функция для любой современной ИИ-платформы.
Открытым остается вопрос правоприменения: письмо адресовано ФАС, однако механизм контроля за соблюдением будущих норм в документе не прописан. Именно от этого во многом будет зависеть, останется ли инициатива декларацией или станет реально работающим инструментом. Если законопроект будет принят, операторы и компании, применяющие голосовых роботов, окажутся перед необходимостью пересмотреть стандарты взаимодействия с клиентами.
Мнение ИИ
С точки зрения машинного анализа данных, масштаб проблемы уже поддаётся количественной оценке: по данным отчёта McKinsey, голосовые ИИ-системы к 2024 году обрабатывают миллиарды звонков ежегодно, и разрыв между «машинным» и «человеческим» голосом стремительно сокращается. Исторический контекст здесь показателен: аналогичные дискуссии об обязательной маркировке уже проходили в США применительно к телемаркетингу — закон TCPA 1991 года обязал компании раскрывать автоматический характер звонков, однако правоприменение десятилетиями оставалось слабым местом.
Технический риск, который стоит учитывать, — это латентность маркировки: предупреждение в начале звонка легко реализуемо, но не исключает подмены голоса в середине разговора. Вопрос, который остается открытым: достаточно ли одного предупреждения, или регулирование должно распространяться на весь сеанс взаимодействия?
▼ Самые интересные и важные новости на нашем канале в Telegram