Глава OpenAI Сэм Альтман (Sam Altman) предупредил пользователей ChatGPT о серьезной угрозе приватности. Разговоры с искусственным интеллектом могут быть использованы в качестве доказательств в судебных процессах, поскольку они не защищены законом как конфиденциальные данные.
ChatGPT без защиты
Альтман назвал отсутствие правовой защиты разговоров с ChatGPT «огромной проблемой» в интервью автору подкаста Тео Вону (Theo Von) на прошлой неделе. В отличие от бесед с терапевтами, юристами или врачами, которые защищены профессиональной тайной, разговоры с ChatGPT таких гарантий не имеют.
«Сейчас, если ты говоришь с терапевтом, юристом или врачом о своих проблемах, существует правовая защита этих разговоров», — объяснил генеральный директор OpenAI. А вот с разговорами с ChatGPT такой ясности и безопасности нет.
Альтман прямо предупредил: если пользователь обсуждает с ChatGPT «самые деликатные вещи», а затем по какой-то причине начинается судебный процесс, то «нас могут обязать предоставить эту информацию».
Растущие риски использования ИИ
Предупреждение главы OpenAI особенно актуально на фоне растущего использования искусственного интеллекта для получения психологической поддержки, медицинских и финансовых консультаций. Многие пользователи доверяют ChatGPT личную информацию, не осознавая потенциальных последствий.
«Я считаю, это очень неправильно», — заявил Альтман, добавив, что «у нас должна быть такая же концепция приватности для разговоров с ИИ, как и с терапевтом».
Глава OpenAI признался, что сам иногда опасается использовать определенные ИИ-технологии: «Это одна из причин, почему я иногда боюсь использовать некоторые ИИ-сервисы — я не знаю, сколько личной информации хочу туда вводить, потому что не знаю, кто получит к ней доступ».
Необходимость правового регулирования
Альтман подчеркнул острую потребность в создании правовых рамок для искусственного интеллекта. По его словам, политики, с которыми он обсуждал эту проблему, согласны с необходимостью нахождения быстрого решения этого вопроса.
Генеральный директор OpenAI также выразил обеспокоенность усилением слежки в связи с широким внедрением ИИ-технологий. «Меня беспокоит, что чем больше в мире ИИ, тем больше слежки за ними хочет мир», — отметил он, объясняя это желанием правительств убедиться, что люди не используют технологии для терроризма или других преступных целей.
Альтман готов пойти на компромисс с приватностью ради общественной безопасности, но с важной оговоркой: «История показывает, что правительство заходит в этом слишком далеко, и меня это очень беспокоит».
Что это означает для пользователей
Предупреждение Альтмана указывает на критический пробел в правовом регулировании ИИ-технологий. В то время как миллионы людей ежедневно делятся с ChatGPT личной информацией, эти данные остаются уязвимыми для судебных запросов и потенциального неправомерного использования.
Пока не будут созданы соответствующие правовые механизмы защиты, пользователям стоит тщательно взвешивать, какую информацию они готовы доверить искусственному интеллекту.
▼
Самые интересные и важные новости на нашем канале в Telegram