Рецепт «свиных крылышек» от «Алисы»: в Яндексе рассказали, почему нейросети ошибаются
Яндекс прокомментировал случаи, когда голосовой помощник «Алиса» дает пользователям неточные или выдуманные ответы, известные как «галлюцинации» искусственного интеллекта.
Как сообщает корреспондент сетевого издания «Белновости», руководитель бизнес-группы поисковых сервисов и ИИ компании Дмитрий Масюк в интервью «Радио РБК» заявил, что, несмотря на постоянную работу по их устранению, полностью избежать таких ситуаций никогда не получится.
Поводом для комментария стал ставший вирусным пример: на вопрос о «свиных крылышках» «Алиса» не только не назвала запрос абсурдным, но и предоставила рецепт их приготовления.

Масюк пояснил, что в данном случае нейросеть не выдумала ответ самостоятельно, а сослалась на реально существующие в интернете статьи.
«Это ее не извиняет в том смысле, что она могла бы говорить, что это абсурд, но, тем не менее, действительно, она ссылается на существующие источники», – отметил представитель «Яндекса».
Для минимизации таких ошибок компания использует механизмы дообучения, когда нейросеть «наказывают» за выдумки и мотивируют сильнее опираться на источники.
Обучение ИИ-помощника проходит в три этапа: обработка огромного массива данных из интернета, обучение на сотнях тысяч редакторских вопросов и ответов для понимания контекста, и оценка работы основной нейросети с помощью отдельной «нейросети-судьи».
Несмотря на наличие галлюцинаций, Масюк отметил, что, по замерам компании, пользователи не воспринимают эти недочеты как критическую проблему.
Он подчеркнул двойственность запроса аудитории: люди одновременно хотят от ИИ живого общения с элементами фантазии и при этом ожидают от него абсолютно точных фактов.