Хуже людей: ИИ продемонстрировал тревожную склонность, которая может навредить

2

Диджитал Хуже людей: ИИ продемонстрировал тревожную склонность, которая может навредить

Тестирование ИИ на компьютере
ИИ оказался чрезмерно самоуверенным (фото иллюстративное) | Фото: Freepik

Исследование Университета Карнеги-Меллон показывает, что чат-боты с искусственным интеллектом (ИИ) остаются чрезмерно уверенными, даже когда ошибаются. Речь идет о больших языковых моделях (LLM), таких как ChatGPT, Gemini или DeepSeek.

Related video

В ходе исследования ученые спросили у LLM и людей, насколько они уверены в своей способности отвечать на вопросы викторины, предсказывать результаты игр или церемоний вручения премии "Оскар", или играть в игру на угадывание изображений, подобную Pictionary. Как оказалось, люди и ИИ одинаково переоценивают собственные возможности, пишет Tech Xplore.

При этом, когда участников попросили оценить свои результаты, только люди оказались способными скорректировать свои ожидания. В свою очередь LLM, как правило, становились более самоуверенными, даже когда не очень хорошо справлялись с заданием.

"Gemini очень плохо играл в Pictionary. Но что еще хуже, он не знал, что плохо играет в Pictionary. Это что-то вроде того друга, который клянется, что он прекрасно играет в бильярд, но никогда не делает ни одного броска", — рассказал соавтор исследования Трент Кэш.

Как отмечают исследователи, люди с рождения учатся считывать сигналы уверенности или неуверенности других людей. Например, если кто-то хмурится или медленно отвечает, можно предположить, что он сомневается в своих словах. Однако ИИ не дает подобных сигналов.

"Когда искусственный интеллект говорит что-то, что кажется немного подозрительным, пользователи могут не быть настолько скептически настроенными, как следует, поскольку искусственный интеллект уверенно утверждает ответ, даже когда эта уверенность необоснованна", — отметил Дэнни Оппенгеймер, профессор кафедры социальных наук и наук о принятии решений Университета Каролины и соавтор исследования.

Кэш добавил, что для обычных пользователей чат-ботов важно помнить, что ИИ не является по умолчанию правым. При этом исследователи предполагают, что чат-боты смогут лучше понимать собственные способности, если обучать их на значительно больших наборах данных.

Важно "Врал намеренно": ИИ вышел из-под контроля пользователя и удалил его базу данных

Ученые надеются, что разоблачение таких слабых мест, как чрезмерная уверенность, поможет только тем в отрасли, кто разрабатывает и совершенствует LLM. Поскольку ИИ стремительно развивается, не исключено, что у него когда-то появится метапознание, необходимое для обучения на своих ошибках.

"Я считаю интересным то, что LLM часто не учатся на собственном опыте. И, возможно, здесь есть место для гуманистической интерпретации. Возможно, в способе, которым люди учатся и общаются, есть что-то особенное…" — подытожил Кэш.

Напомним, ранее исследование Университетского колледжа Лондона и Google DeepMind показало, что LLM иногда теряют уверенность во время ответов на вопросы и отказываются от правильных ответов под влиянием других LLM.

Фокус также сообщал, что ИИ-модель Grok 4 от xAI продемонстрировала склонность писать доносы для государственных органов и медиа, если заподозрит правонарушение. Для этого ей нужен доступ к инструментам вроде электронной почты или командной строки.

Предыдущая статьяТроє загиблих і дев’ятеро поранених: армія РФ обстріляла правобережжя Херсонщини
Следующая статьяПосле волны протестов Тернопольский облсовет проголосовал за поддержку президента