Как нейросети притворяются всезнайками и что с этим делать?
Мы уже рассказывали о том, что способность нейросетей врать пользователям превзошла самые смелые ожидания. Может показаться, что в этом нет ничего серьезного, однако ученые с этим не согласны. Дело в том, что такие языковые модели, как GPT-4 стали неотъемлемой частью повседневной жизни.
Они также активно используются в образовании, медицине и науке, помогая решать разнообразные и довольно сложные задачи. Но, несмотря на впечатляющие возможности этих интеллектуальных систем, результаты последних исследований показали, что по мере их развития и постоянного улучшения, нейросети становятся все менее надежными и чаще выдумывают факты.
Кажется, что у нейросетей есть ответы на все вопросы, однако они способны на поражающе убедительную ложь.
Новейшие ИИ-системы стремятся убедительно отвечать на все вопросы, даже когда не уверены в надежности информации. Это особенно опасно в областях, где точность и надежность критически важны, например, в медицине или юридической практике.
Почему нейросети выдумывают факты?
Результаты исследования, опубликованного в журнале Nature, показали, что группа чат-ботов с искусственным интеллектом становится все менее надежной: по мере своего развития, большие языковые модели все чаще выдумывают факты, отвечая на вопросы пользователей.
К такому выводу авторы статьи пришли, рассмотрев работу ведущих в отрасли ИИ-систем, включая GPT от OpenAI, LLaMA от Meta, а также модель с открытым исходным кодом BLOOM, созданную исследовательской группой BigScience.
Нейросети научились притворяться всезнайками.
Отметим, что традиционно улучшение систем на основе искусственного интеллекта, достигалось двумя способами: масштабированием (увеличением количества параметров, объема данных и вычислительных ресурсов) и «оттачиванием» моделей (настройкой под конкретные задачи и использованием обратной связи от пользователей). Эти подходы позволили чат-ботам лучше понимать инструкции и генерировать более сложные и связные ответы.
В рамках исследования, однако, было обнаружено, что эти методы улучшения приводят к нежелательным последствиям. Так, более крупные и «отточенные» модели не всегда надежны в решении простых задач, ошибки в которых должны быть минимальны. Более того, доля неправильных ответов улучшенных моделей в целом значительно выше, чем у их предшественников.
В наши дни нейросети отвечают практически на все вопросы. Это означает, что количество как правильных, так и не правильных ответов растет, – рассказал один из авторов нового исследования Хосе Эрнандес-Оралло из Валенсийского исследовательского института искусственного интеллекта (Испания).
Более жесткую оценку дает Майк Хикс из Университета Глазго (Великобритания), который не принимал участие в исследовании. По его мнению, притворство чат-ботов становится все лучше. «В целом, ситуация выглядят так, будто они блефуют», – сообщил Хикс.
Как ученые узнали, что чат-боты врут?
В рамках исследования ученые задавали чат-ботам вопросы по различным темам (от математики до географии), а также попросили выполнить ряд задач, например, перечислить информацию в определенном порядке. Результаты показали, что более крупные и мощные ИИ-системы в целом давали наиболее точные ответы. Однако точность ответов на более сложные вопросы была значительно ниже.
Авторы научной работы отметили, что ответить практически на любой вопрос смогли GPT-4 и GPT-o1 от OpenAI. В то же самое время ни один чат-бот из семейства LLaMA не смог достичь уровня точности в 60%, отвечая на самые простые вопросы.
Недавно OpenAI представили самую мощную модель ChatGPT-o1, которая умеет писать научные статьи.
В целом, чем больше становились модели искусственного интеллекта — с точки зрения параметров, обучающих данных и других факторов, — тем больше неправильных ответов они давали, – заключили исследователи.
Тем не менее, по мере своего развития, нейросети все лучше отвечают на более сложные вопросы. Проблема, помимо их склонности к ошибкам, заключается в том, что они по-прежнему не справляются с простыми вопросами.
Теоретически, наличие подобных ошибок – это серьезное предупреждение для ученых и пользователей, но поскольку эти интеллектуальные системы неплохо решают сложные задачи, мы, вероятно, склонны не замечать их очевидные недостатки.
Чат-ботам трудно отвечать на простые вопросы.
К счастью, результаты нового исследования свидетельствуют и о несколько «отрезвляющих» выводах о том, как люди воспринимают ответы ИИ. Например, когда участников исследования попросили оценить, насколько точными им кажутся ответы чат-ботов на заданные вопросы, испытуемые ошиблись лишь в 10%-40% случаев. Это означает, что осведомленность пользователей о том, что чат-боты не такие уж всезнайки, растет.
Что делать?
По мнению авторов научной работы, самый простой способ борьбы с «всезнающими» ИИ-системами заключается в их «перепрошивке» – разработчики должны запрограммировать модели таким образом, чтобы те не спешили отвечать на все вопросы сразу. Например, более ранние модели часто избегали ответов на сложные вопросы и признавали свои ограничения.
Можно задать своего рода «порог» для чат-ботов, чтобы они, отвечая на сложный вопрос, отвечали честно: «Я не знаю», – рассказал один из авторов исследования Эрнандес-Оралло.
Тем не менее, подобная честность может не входить в интересы компаний, которые занимаются разработкой и улучшением ИИ-систем. В конечном итоге главная задача корпораций – привлечь как можно больше внимания общественности (а заодно и новых пользователей) к своим новейшим разработкам. По этой причине ученые считают, что разработчикам необходимо переосмыслить подход к разработке ИИ-систем.
Взаимодействие с чат-ботами должно быть осмысленным.
Это означает, что если бы чат-ботов ограничивали, заставляя их отвечать только на те вопросы, ответы на которые они знают, общественность сразу же обратила бы внимание на пределы возможностей нейросетей. Однако в этом, как мне кажется, нет ничего плохого.
Итак, что же делать простым людям, регулярно взаимодействующим с чат-ботами, зная все описанное выше? Ответ, как мне кажется, прост – «доверяй, но проверяй». Безусловно, это занимает время, однако сам по себе навык (и даже привычка) проверять данные и информацию, определенно точно сделает вашу жизнь и работу лучше.
0 комментариев