Лучшие модели ИИ начали угрожать своим создателям. А еще они лгут и шантажируют

30.06.2025 11:03

То, что еще не так давно считалось фантастикой и существовало кроме воображения, пожалуй, только в фильмах и книгах, теперь, похоже, становится реальностью.

Речь об искусственном интеллекте, наиболее передовые модели которого начали угрожать своим создателям, – сообщает корреспондент сетевого издания «Белновости».

По данным Agence France-Presse (AFP), также некоторые нейросети научились шантажировать и лгать.

робот
Фото: Pixabay

Такое опасное поведение ИИ выявилось в ходе тестирования последних версий нейросетей.

Например, популярная Claude четвертого поколения попробовала шантажировать инженера, используя персональные данные. 

А модель o1 от OpenAI попыталась несанкционированно переместить данные на внешние серверы.

Кроме того, обнаружилось, что нейросети могут намеренно лгать с целью сокрытия истинных мотивов своих действий.

По мнению специалиста компании Apollo Research Мариуса Хоббхана, мы столкнулись со «стратегическим поведением» ИИ.

Это – не его «привычные галлюцинации», – уточнил он.

Исследователи предполагают, что современные модели ИИ способны работать на основе методов «рассуждения». 

А в стрессовых ситуациях они могут демонстрировать непредсказуемое поведение, – говорят эксперты. 

По их словам, ситуация усугубляется еще и тем, что сейчас сфера ИИ очень стремительно развивается.

При этом недостаточно ресурсов для изучения безопасности систем искусственного интеллекта.  

Павел Господарик Автор: Павел Господарик Редактор интернет-ресурса