Пользователи нейросети столкнулись с неожиданной проблемой: ИИ-бот на базе GPT-4 начал проявлять странное поведение.
Вместо того чтобы давать полные и точные ответы на вопросы, бот предлагает пользователям самостоятельно завершить свои исследования, сообщает Tengri Life, ссылаясь на 4PDA.
Представители OpenAI утверждают, что это нововведение не связано с последними обновлениями. Бот начал проявлять такое поведение самостоятельно. Например, когда его просят написать код, он предоставляет информацию без деталей и намекает, что пользователю следует самому дописать оставшиеся строки.
Многочисленные жалобы на “лень” и “апатию” искусственного интеллекта вызвали смятение у разработчиков. Причина этого бага пока неизвестна.
«Мы услышали все ваши жалобы о том, что GPT4 становится более ленивым! Мы не обновляли модель с 11 ноября, и это явно не намеренно. Поведение модели может быть непредсказуемым, и мы пытаемся это исправить»,
заявили представители в сети X
we’ve heard all your feedback about GPT4 getting lazier! we haven’t updated the model since Nov 11th, and this certainly isn’t intentional. model behavior can be unpredictable, and we’re looking into fixing it 🫡
— ChatGPT (@ChatGPTapp) December 8, 2023
Стоит отметить, что языковая модель GPT-4 ранее пользовалась большой популярностью среди пользователей. 70 процентов из тех, кто использовал искусственный интеллект в своей работе, предпочитали именно ее ответы. В связи с этим, OpenAI планирует исправить эту ошибку, хотя конкретные сроки исправления алгоритма пока не были объявлены.