Рецепт «свиных крылышек» от «Алисы»: в Яндексе рассказали, почему нейросети ошибаются

09.12.2025 20:10

Яндекс прокомментировал случаи, когда голосовой помощник «Алиса» дает пользователям неточные или выдуманные ответы, известные как «галлюцинации» искусственного интеллекта.

Как сообщает корреспондент сетевого издания «Белновости», руководитель бизнес-группы поисковых сервисов и ИИ компании Дмитрий Масюк в интервью «Радио РБК» заявил, что, несмотря на постоянную работу по их устранению, полностью избежать таких ситуаций никогда не получится.

Поводом для комментария стал ставший вирусным пример: на вопрос о «свиных крылышках» «Алиса» не только не назвала запрос абсурдным, но и предоставила рецепт их приготовления.

Крылышки
Фото: Pixabay

Масюк пояснил, что в данном случае нейросеть не выдумала ответ самостоятельно, а сослалась на реально существующие в интернете статьи.

«Это ее не извиняет в том смысле, что она могла бы говорить, что это абсурд, но, тем не менее, действительно, она ссылается на существующие источники», – отметил представитель «Яндекса».

Для минимизации таких ошибок компания использует механизмы дообучения, когда нейросеть «наказывают» за выдумки и мотивируют сильнее опираться на источники.

Обучение ИИ-помощника проходит в три этапа: обработка огромного массива данных из интернета, обучение на сотнях тысяч редакторских вопросов и ответов для понимания контекста, и оценка работы основной нейросети с помощью отдельной «нейросети-судьи».

Несмотря на наличие галлюцинаций, Масюк отметил, что, по замерам компании, пользователи не воспринимают эти недочеты как критическую проблему.

Он подчеркнул двойственность запроса аудитории: люди одновременно хотят от ИИ живого общения с элементами фантазии и при этом ожидают от него абсолютно точных фактов.

Виталий Кистерный Автор: Виталий Кистерный Главный редактор