Блокчейн, финтех, новая экономика, блэкджек

Академическое исследование показало: чат-боты постепенно глупеют

Новости

Казалось бы, прогресс не стоит на месте, и чат-боты должны становиться все умнее. Но не тут-то было! Свежее исследование, опубликованное в легендарном научном журнале Nature, преподнесло нам сюрприз почище, чем падение биткоина на 50%: оказывается, наши кремниевые собеседники с каждым днем становятся все глупее.

Ученые, видимо, решили подложить свинью Кремниевой долине и выпустили работу с говорящим названием «Рост масштаба и способности к обучению языковой модели приводит к падению ее надежности». Один из авторов исследования, Лексин Чжоу (Lexin Zhou), выдвинул интересную теорию. Оказывается, ИИ-модели так стараются выдать правдоподобный ответ, что забывают о такой мелочи, как точность. Главное — чтобы красиво звучало, а там хоть трава не расти!

И знаете, что самое забавное? Эти «галлюцинации» ИИ имеют свойство накапливаться и усиливаться со временем. Представьте себе снежный ком глупости, который катится с горы научного прогресса. А все потому, что новые модели учатся у старых, создавая настоящий «коллапс моделей». Прямо-таки семейное древо заблуждений!

Редактор и писатель Матье Руа (Mathieu Roy) предупреждает пользователей: не стоит слепо доверять этим кремниевым оракулам. «Хотя ИИ может быть полезен для ряда задач, важно проверять информацию, полученную от ИИ-моделей», — говорит он. А как насчет того, что «Часто нет способа проверить информацию, кроме как спросить у самого чат-бота»? Замкнутый круг какой-то получается, не находите?

А тут еще и Google подлил масла в огонь. В феврале 2024 года их ИИ-платформа начала генерировать исторически недостоверные изображения. Представьте себе: темнокожие нацистские офицеры и известные исторические личности с внешностью, от которой сами бы в гробу перевернулись.

Казалось бы, куда уж хуже? Но нет, индустрия не сдается! Генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) предложил радикальное решение: «ИИ не должен просто отвечать; сначала он должен провести исследование, чтобы определить, какие из ответов лучшие». Прямо как в школьном сочинении — подготовка, анализ, выбор лучшего варианта. Только вот незадача: подобные меры уже используются в самых популярных моделях, а воз и ныне там.

В сентябре генеральный директор HyperWrite AI Мэтт Шумер (Matt Shumer) анонсировал разработку модели «Reflection 70B», заявив, что это «лучшая модель с открытым исходным кодом в мире». Якобы эта штука позволяет ИИ учиться на собственных ошибках и корректировать ответы со временем. Прямо как люди, только вот люди-то умнеют, а ИИ, судя по всему, наоборот.

Что ж, похоже, мечта о всезнающем электронном помощнике пока остается лишь мечтой. А нам, простым смертным, остается лишь надеяться, что в следующий раз, когда мы спросим у чат-бота, как приготовить борщ, он не посоветует добавить туда ананасы и соевый соус.


Самые интересные и важные новости на нашем канале в Telegram

Понравилась статья?

Подпишись на e-mail рассылку и будь всегда в курсе последних событий
BTC
87637-2.31%
ETH
3052.87-5.06%
BCH
417.23-3.99%
XRP
0.8218.48%
Ту зе МУН