Блокчейн, финтех, новая экономика, блэкджек

Опасности и риски внедрения искусственного интеллекта

Антон Эльстон/Статьи

За последний год искусственный интеллект наделал много шума. Благодаря прогрессу генеративных инструментов, таких как ChatGPT, компании и целые страны осознали огромный потенциал этой технологии и начинают ее применять.

Мы знаем, что существуют проблемы — утрата рабочих мест, риски с точки зрения кибербезопасности и кражи данных или, возможно, даже экзистенциальная угроза человечеству в целом.

Сегодня более непосредственная угроза исходит не от сверхразума, а от полезных, но потенциально опасных приложений, использующих ИИ. Есть два контекста этой проблемы: опасность ИИ для человека и риски с точки зрения компаний, внедряющих передовую технологию.

Чем может быть опасен искусственный интеллект?

ИИ способен приносить пользу или вред, в зависимости от того, как мы его используем и контролируем. Среди возможных опасностей ИИ можно выделить следующие:

Потеря рабочих мест

ИИ способен выполнять некоторые задачи лучше, быстрее и дешевле, чем человек. Это может привести к сокращению рабочей силы и увеличению безработицы. Людям придется адаптироваться к новой ситуации и искать новые способы заработка и самореализации.

Политические, юридические и социальные вызовы

ИИ требует регулирования. Если наши правительства и корпоративные институты не потратят время на разработку правил, стандартов и обязанностей, определяющих дальнейшее развитие ИИ, то неизбежно возникнут негативные последствия.

Терроризм с использованием ИИ

Искусственный интеллект способен изменить способ силового воздействия с помощью автономных дронов, роев роботов, дистанционных атак и атак нанороботов. Человечеству придется поставить под контроль глобальную гонку автономных вооружений.

Социальные манипуляции

Искусственный интеллект может отражать предубеждения людей, которые его создают. Если данные, на которых обучается ИИ, субъективны, то это может повлиять на качество генерируемого контента. В руках злоумышленников ИИ может быть использован для распространения лжи и влияния на общественное мнение.

Надзор с помощью ИИ

Искусственный интеллект может распознавать лица, что дает возможность разблокировать телефоны, получать доступ к закрытым объектам, а также тайно следить за обществом. В некоторых странах полиция и правительство нарушают приватность людей, используя способность ИИ контролировать информационные системы на основе данных наблюдения, камер и социальных сетей.

Дипфейки

Технология искусственного интеллекта позволяет легко создавать поддельные видео с реальными людьми. Они могут быть использованы без согласия пользователя для распространения фальшивых новостей, создания фейковой порнографии и других подделок, направленных на нанесение ущерба не только репутации человека, но и его материальному состоянию. Технология постоянно совершенствуется и легко вводит людей в заблуждение.

Меры противодействия опасностям

Для противодействия опасностям ИИ можно принять следующие меры:

  • Разработать и соблюдать этические принципы и стандарты в области ИИ, которые будут учитывать права и интересы человека, а также общественную пользу и безопасность.
  • Регулировать и контролировать развитие и применение ИИ, устанавливая правила, нормы и обязательства для создателей, пользователей и надзорных органов.
  • Обеспечить транспарентность и ответственность ИИ, требуя от него объяснять свои решения, действия и результаты, а также нести ответственность за возможные ошибки, нарушения или ущерб.
  • Обучать специалистов по ИИ, а также повышать осведомленность и грамотность общества в области ИИ, формируя критическое мышление и знание своих прав и обязанностей.
  • Сотрудничать и поддерживать диалог с различными заинтересованными сторонами, включая научное сообщество, бизнес, государство, общественные организации и граждан, для обмена знаниями, опытом и мнениями по вопросам ИИ.

Некоторые из этих мер уже реализуются в разных странах и регионах. Например, Европейский союз принял первый в мире закон о защите прав человека в сфере ИИ, который предусматривает запрет на определенные виды ИИ, классификацию ИИ по уровню риска, требования к качеству данных, безопасности и документации ИИ, а также механизмы надзора и санкций.

В чем заключаются риски для компаний?

В недавнем отчете Всемирного экономического форума говорится, что в настоящее время компании недооценивают риски, связанные с ИИ, и только 4% руководителей считают уровень риска значительным.

В мае 2023 года Samsung стала одной из последних компаний, запретивших использование ChatGPT после того, как обнаружила, что сотрудники передавали генеративному инструменту данные конфиденциальных документов. Компания OpenAI открыто заявила, что ChatGPT не дает гарантии конфиденциальности, поскольку загружает данные в облако, где к ним могут получить доступ сотрудники а, возможно, и другие лица.

Это лишь один из большого количества примеров, получивших известность в последнее время. Многие компании не готовы к подводным камням, которые таит в себе ИИ.

Точность

Общая проблема генеративного ИИ заключается в том, что мы не можем полагаться на точность полученных результатов. Любой, кто использовал ChatGPT или аналогичные инструменты для исследований и для поиска ответа на сложные вопросы, знает, что иногда они могут давать неверную информацию. ИИ часто скрывает свои источники, что только усугубляет ситуацию. Ошибочные действия, основанные на неточной информации, могут привести к операционному или репутационному ущербу для бизнеса.

Угрозы безопасности

Могут проявляться в форме как внутренних, так и внешних угроз. Внутри компании неосведомленные или неправильно обученные пользователи могут раскрыть конфиденциальную корпоративную информацию или защищенную информацию клиентов, загрузив ее на облачные генеративные платформы, такие как ChatGPT. С другой стороны, ИИ позволяет киберпреступникам прибегать к новым и изощренным формам социальной инженерии и фишинговых атак. Например, генеративный ИИ может быть использован для создания поддельного голосового сообщения от руководителя компании, запрашивающего у сотрудника конфиденциальную информацию.

Предвзятость

Системы ИИ хороши лишь настолько, насколько хороши данные, на которых они обучаются, поэтому существует опасность создания предвзятых результатов. Если данные собираются предвзятым образом (например, в условиях завышенной или заниженной статистики по определенным группам населения), то это приводит к искаженным результатам, которые могут повлиять на принятие решений. Примером служит инструмент, предназначенный для автоматического сканирования резюме соискателей и отсеивания неподходящих. Если инструмент не располагает достаточным количеством данных о заявителях из определенного сегмента, то окажется не способен точно оценить соответствующие заявки.

Культура и доверие

Внедрение новых инструментов, технологий и процессов часто вызывает беспокойство у работников. Дополнительная тревога может быть связана с обсуждением замены человека искусственным интеллектом. Сотрудники часто опасаются, что системы ИИ будут внедрены на их рабочих местах, в результате чего они окажутся уволенными. Также могут возникнуть подозрения, что системы ИИ внедряются для наблюдения за сотрудниками и мониторинга их деятельности.

Повышение корпоративной готовности

Многие руководители высшего звена чрезмерно уверены в своих оценках готовности к использованию ИИ. Опросы показывают, что только 41% компаний обладают опытом в области ИИ на уровне правления. При этом редко можно обнаружить, что компании вырабатывают собственную политику в отношении использования генеративных инструментов ИИ. Как правило, у них не создана система, гарантирующая, что информация, создаваемая ИИ, является точной и заслуживает доверия, и что предвзятость не влияет на принятие решений с помощью ИИ.

Невозможно быстро взять под контроль ИИ, но хорошим началом было бы назначить директора по ИИ (CIAO), который несет ответственность за внедрение, оценку возможностей и рисков. В его обязанности также должно входить обеспечение осведомленности об ИИ на всех уровнях организации. Всем сотрудникам необходимо знать о рисках, связанных с точностью, предвзятостью и безопасностью. Кроме того, все в компании должны понимать, как ИИ способен повлиять на их собственную роль, и как он может сделать их труд более эффективным.

Если ИИ используется для сбора информации или принятия решений, должны быть разработаны протоколы для оценки точности генерации и выявления областей деятельности, на которые может оказать влияние предвзятость ИИ.

Кроме того, ИИ должен стать частью корпоративной стратегии кибербезопасности. Эта стратегия может иметь разные уровни сложности, начиная с простого информирования сотрудников об угрозах фишинга с использованием искусственного интеллекта и атак социальной инженерии, вплоть до развертывания систем защиты на основе ИИ от попыток взлома с помощью ИИ.

И, наконец, компании должны приложить усилия по взаимодействию с государственными инстанциями для участия в дискуссиях по регулированию ИИ и законодательству. По мере развития технологии, отраслевые органы и организации начнут участвовать в разработке и внедрении кодексов практики, положений и стандартов. Важно, чтобы организации, которые находятся на переднем крае использования технологии ИИ, предоставили свой вклад и опыт.

Не понимая этих опасностей и не реагируя на них, любой человек или компания рискует столкнуться с одной из величайших угроз, создаваемых ИИ: не использовать его возможности и в результате остаться позади более дальновидных конкурентов.


Канал Anton Elston — это актуальная информация об IT, блокчейне, NFT и онлайн-образовании. Здесь рождается метавселенная DEXART

Понравилась статья?

Подпишись на e-mail рассылку и будь всегда в курсе последних событий
BTC
638471.42%
ETH
3313.176.13%
BCH
481.821.69%
XRP
0.521.06%
Ту зе МУН