Блокчейн, финтех, новая экономика, блэкджек

Игра для двоих: мы меняем искусственный интеллект, он меняет нас

Антон Эльстон/Статьи

В мире, где цифровые технологии пронизывают каждый аспект нашей жизни, мы невольно становимся участниками грандиозного эксперимента. Древнегреческий философ Сократ, окажись он на улицах современного мегаполиса, был бы поражен, увидев людей, постоянно взаимодействующих с невидимыми цифровыми сущностями. Его знаменитое изречение «Познай самого себя» приобретает совершенно новое звучание в нашу эпоху. Теперь мы не просто познаем себя, но и невольно обучаем искусственный интеллект, который, в свою очередь, влияет на наше поведение.

Недавнее исследование, проведенное учеными из Вашингтонского университета, раскрыло удивительный факт: люди меняют свое поведение, когда знают, что их действия используются для обучения искусственного интеллекта. Но это еще не все — эти изменения могут сохраняться и в будущем, создавая новые привычки у человека-тренера. Даже те тенденции или предубеждения в поведении человека, о которых он сам может не подозревать, способны измениться.

Кто кого тренирует?

Эта ситуация напоминает знаменитый парадокс кота Шредингера, только вместо кота у нас искусственный интеллект, а вместо ящика — наше собственное сознание. Мы одновременно являемся и наблюдателями, и участниками эксперимента. Наши действия влияют на ИИ, а его реакции — на нас. Это похоже на странный симбиоз, где границы между человеком и машиной становятся все более размытыми.

Понимание этого взаимодействия критически важно для развития технологий искусственного интеллекта. Нам необходимо тщательно изучать поведение людей, взаимодействующих с ИИ, особенно когда они помогают обучать эти инструменты. Только так мы сможем измерить и смягчить возникающие предубеждения.

Однако у этой медали есть и обратная сторона. В ситуации с обучением искусственного интеллекта для управления беспилотными автомобилями, люди, зная о своем участии в обучении, могут начать водить особенно осторожно, что приведет к созданию «идеального» водителя. Звучит неплохо, не так ли? Но в городе, где водители часто проезжают на желтый сигнал светофора, беспилотный автомобиль, пытающийся быть идеальным водителем, может оказаться даже более опасным. Парадоксально, но ИИ, возможно, нужно научиться «проскакивать на желтый», если это типичное поведение людей в данном месте.

Игра с алгоритмами

Эта проблема не ограничивается только автомобилями. В социальных сетях многие из нас замечали, как чувствительны алгоритмы рекомендаций к нашему поведению. Достаточно задержаться на каком-то видео на несколько секунд, и вот уже лента заполняется похожим контентом.

Осознавая это, мы начинаем манипулировать алгоритмами. Например, намеренно пролистываем нежелательный контент, чтобы «научить» систему показывать нам меньше подобных материалов. Это своего рода танец с алгоритмами, где каждое наше движение влияет на следующий шаг партнера.

Чтобы глубже понять этот феномен, исследователи использовали классический академический подход — игру Ультиматум. В этой игре один участник решает, как разделить $10 между собой и партнером, а второй может принять или отвергнуть предложение. Если предложение принято, каждый получает свою долю. Если отвергнуто — никто не получает ничего.

Результаты эксперимента оказались поразительными. Участники, знавшие, что их игра используется для обучения искусственного интеллекта, чаще отвергали несправедливые предложения. Они жертвовали собственной выгодой, чтобы научить ИИ играть честно. И это происходило даже в тех случаях, когда участники знали, что им не придется играть против этого ИИ в будущем.

Чтобы исключить влияние «эффекта наблюдателя», исследователи убрали значок веб-камеры с экрана участников. Но даже без явного напоминания о наблюдении люди продолжали жертвовать наградой ради обучения искусственного интеллекта справедливости.

Самым интригующим оказалось то, как долго сохранялись эти изменения в поведении. Участники, вернувшиеся к эксперименту через два-три дня, продолжали играть так же, как и в первой сессии. Даже после явного указания, что они больше не обучают ИИ, их поведение оставалось неизменным.

Философский вопрос справедливости

Эти открытия поднимают глубокие философские вопросы. В игре Ультиматум есть четкое определение справедливости. Но в реальной жизни ситуация намного сложнее. Что считать справедливым в других обстоятельствах? Особенно учитывая, что люди неизбежно будут вносить свои предпочтения, предубеждения или убеждения в системы ИИ, которые они обучают.

Мы оказались в ситуации, напоминающей знаменитый парадокс «корабля Тесея». Этот парадокс, описанный древнегреческим философом Плутархом, задает вопрос: если заменить все части корабля, останется ли он тем же самым кораблем? В нашем случае, если мы постоянно меняем свое поведение, обучая искусственный интеллект, а затем ИИ влияет на нас, остаемся ли мы теми же людьми?

Заключение: новый диалог с самим собой

В эпоху искусственного интеллекта мы словно ведем непрерывный диалог с цифровым отражением самих себя. Каждое наше действие становится вопросом, на который искусственный интеллект ищет ответ, и этот ответ возвращается к нам, влияя на наши будущие решения. Это напоминает бесконечный диалог, где роли учителя и ученика постоянно меняются.

Если бы Сократ оказался в нашем мире, он, возможно, переформулировал бы свой знаменитый призыв: «Познай себя через свое взаимодействие с искусственным интеллектом». Наша задача теперь — научиться вести этот сложный диалог с цифровыми технологиями таким образом, чтобы оставаться авторами собственной жизни, а не становиться продуктами алгоритмов.


Канал Anton Elston — это актуальная информация об IT, блокчейне, NFT и онлайн-образовании. Здесь развивается метавселенная DEXART

Понравилась статья?

Подпишись на e-mail рассылку и будь всегда в курсе последних событий
BTC
98645-0.79%
ETH
3344.37-0.92%
BCH
527.146.53%
XRP
1.5512.40%
Ту зе МУН