Искусственный интеллект научился обманывать

25.02.2020 16:28

Американские инженеры из Массачусетского технологического института применили необычную способность по отношению к ИИ.

Они научили систему возможности вводить в сознательное заблуждение другие аналогичные технологии.

Для этого специалистам пришлось научить ИИ распознавать текст после замены определенного слова на синоним.

Практически специалисты внедрили методику для обмана, которая анализирует текст искусственного интеллекта с целью замены слов синонимами, чтобы обмануть распознающий текст ИИ.

Тонкость в том, что для подбора таких синонимов атакующий алгоритм сам вынужден прибегать за помощью к искусственному разуму.

Интеллект

В качестве примера специалисты использовали одну фразу, которая звучит так:

«Персонажи, которые были сыграны в невероятно надуманных обстоятельствах, совершенно далеки от реальности».

Эта фраза была взята из негативных отзывов к одному фильму.

Далее исследователи заменили в ней слова синонимами, что позволило читать фразу следующим образом:

«Персонажи, которые были сыграны в невероятно искусных обстоятельствах, совершенно далеки от реальности».

В результате такой интерпретации ИИ счел данный отзыв о той же картине положительным.

Как утверждают инженеры, вводить в заблуждение можно системы ИИ и других типов.

Но в этом случае специалисты продемонстрировали уязвимости в технологиях распознавания изображений и речи.

Ученые отмечают, что искусственный интеллект добился значительных успехов в понимании языка.

Но в то же время он остается уязвимым из-за потенциально опасной разновидности так называемой «синонимической близорукости».

Представленный учеными алгоритм получил название TextFooler.

Ему под силу обмануть систему ИИ без внесения изменений в суть исследуемого текста.

Данный алгоритм разработан на специальной системе, которая определяет, какие слова следует преобразовать в синонимы.

В будущем этот лексикон может применяться для обмана искусственного интеллекта.

Исследователи видят в этой уязвимости серьезную проблему для безопасности в будущем.

Дело в том, что системы ИИ теперь все чаще применяются для оценки резюме, медицинских показаний и прочей обработки документов, как юридического, так и любого другого характера.

Например, злоумышленники, допустив подобные изменения в тексте, могут позволить «фейковым» новостям уклониться от редактора, работающего на основе ИИ.

В повседневной ситуации такая ошибка может повлиять на предоставление более высоких выплат по страховым случаям и так далее.

Вполне возможно, что такие незначительные искажения данных могут обернуться для ИИ атакой на систему.

Как предполагаемые сферы, которые могут быть в будущем атакованы с применением такой уязвимости системы, эксперты в первую очередь называют финансовый сектор и область здравоохранения.

Логично, что после того, как исследователи смогли обмануть обученную систему с помощью другого искусственного интеллекта, стоит ожидать появления алгоритма, который смог бы противостоять такому обману.

Фото: Pixabay

Игорь Зур Автор: Игорь Зур Редактор интернет-ресурса