Казалось бы, прогресс не стоит на месте, и чат-боты должны становиться все умнее. Но не тут-то было! Свежее исследование, опубликованное в легендарном научном журнале Nature, преподнесло нам сюрприз почище, чем падение биткоина на 50%: оказывается, наши кремниевые собеседники с каждым днем становятся все глупее.
Ученые, видимо, решили подложить свинью Кремниевой долине и выпустили работу с говорящим названием «Рост масштаба и способности к обучению языковой модели приводит к падению ее надежности». Один из авторов исследования, Лексин Чжоу (Lexin Zhou), выдвинул интересную теорию. Оказывается, ИИ-модели так стараются выдать правдоподобный ответ, что забывают о такой мелочи, как точность. Главное — чтобы красиво звучало, а там хоть трава не расти!
И знаете, что самое забавное? Эти «галлюцинации» ИИ имеют свойство накапливаться и усиливаться со временем. Представьте себе снежный ком глупости, который катится с горы научного прогресса. А все потому, что новые модели учатся у старых, создавая настоящий «коллапс моделей». Прямо-таки семейное древо заблуждений!
Редактор и писатель Матье Руа (Mathieu Roy) предупреждает пользователей: не стоит слепо доверять этим кремниевым оракулам. «Хотя ИИ может быть полезен для ряда задач, важно проверять информацию, полученную от ИИ-моделей», — говорит он. А как насчет того, что «Часто нет способа проверить информацию, кроме как спросить у самого чат-бота»? Замкнутый круг какой-то получается, не находите?
А тут еще и Google подлил масла в огонь. В феврале 2024 года их ИИ-платформа начала генерировать исторически недостоверные изображения. Представьте себе: темнокожие нацистские офицеры и известные исторические личности с внешностью, от которой сами бы в гробу перевернулись.
Казалось бы, куда уж хуже? Но нет, индустрия не сдается! Генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) предложил радикальное решение: «ИИ не должен просто отвечать; сначала он должен провести исследование, чтобы определить, какие из ответов лучшие». Прямо как в школьном сочинении — подготовка, анализ, выбор лучшего варианта. Только вот незадача: подобные меры уже используются в самых популярных моделях, а воз и ныне там.
В сентябре генеральный директор HyperWrite AI Мэтт Шумер (Matt Shumer) анонсировал разработку модели «Reflection 70B», заявив, что это «лучшая модель с открытым исходным кодом в мире». Якобы эта штука позволяет ИИ учиться на собственных ошибках и корректировать ответы со временем. Прямо как люди, только вот люди-то умнеют, а ИИ, судя по всему, наоборот.
Что ж, похоже, мечта о всезнающем электронном помощнике пока остается лишь мечтой. А нам, простым смертным, остается лишь надеяться, что в следующий раз, когда мы спросим у чат-бота, как приготовить борщ, он не посоветует добавить туда ананасы и соевый соус.
▼
Самые интересные и важные новости на нашем канале в Telegram