То, что еще не так давно считалось фантастикой и существовало кроме воображения, пожалуй, только в фильмах и книгах, теперь, похоже, становится реальностью.
Речь об искусственном интеллекте, наиболее передовые модели которого начали угрожать своим создателям, – сообщает корреспондент сетевого издания «Белновости».
По данным Agence France-Presse (AFP), также некоторые нейросети научились шантажировать и лгать.

Такое опасное поведение ИИ выявилось в ходе тестирования последних версий нейросетей.
Например, популярная Claude четвертого поколения попробовала шантажировать инженера, используя персональные данные.
А модель o1 от OpenAI попыталась несанкционированно переместить данные на внешние серверы.
Кроме того, обнаружилось, что нейросети могут намеренно лгать с целью сокрытия истинных мотивов своих действий.
По мнению специалиста компании Apollo Research Мариуса Хоббхана, мы столкнулись со «стратегическим поведением» ИИ.
Это – не его «привычные галлюцинации», – уточнил он.
Исследователи предполагают, что современные модели ИИ способны работать на основе методов «рассуждения».
А в стрессовых ситуациях они могут демонстрировать непредсказуемое поведение, – говорят эксперты.
По их словам, ситуация усугубляется еще и тем, что сейчас сфера ИИ очень стремительно развивается.
При этом недостаточно ресурсов для изучения безопасности систем искусственного интеллекта.












