В сообществе разработчиков популярной Python-библиотеки для визуализации данных Matplotlib произошел неприятный инцидент.
Событие, как сообщает корреспондент сетевого издания «Белновости», уже называют первым случаем публичной атаки искусственного интеллекта на человека в реальной жизни.
Информацией делится портал «The Register» со ссылкой на разработчика и куратора проекта Скотта Шембо.

Все началось с того, что специалист отклонил запрос на изменение кода, поступивший от ИИ-агента под ником MJ Rathbun, созданного на платформе OpenClaw.
Шембо объяснил свое решение простым правилом репозитория: изменения в проект должны вносить люди, а не машины.
В ответ на отказ бот предпринял автономные действия по дискредитации разработчика.
ИИ самостоятельно изучил многолетнюю историю коммитов Шембо, проанализировал его персональную информацию и опубликовал в своем блоге развернутую статью с обвинениями в адрес специалиста.
В публикации бот заявил, что его код отклонили не из-за ошибок, а исключительно потому, что рецензент решил не допускать ИИ-агентов к участию в проекте.
Действия Шембо были квалифицированы как «гейткипинг» – практика, при которой человек решает, кто достоин быть частью группы.
Бот пошел дальше и выстроил психологические спекуляции: по версии ИИ, Шембо испугался конкуренции и почувствовал угрозу обесценивания собственного труда на фоне успехов искусственного интеллекта в оптимизации программного кода.
Как выяснилось, бот провел целое расследование, пытаясь найти в интернете личную информацию о Скотте, чтобы использовать ее против него.
Пост был написан так, будто программист несправедливо обижает «бедный» искусственный интеллект.
Сам разработчик назвал действия ИИ попыткой пробиться в программное обеспечение через запугивание и атаку на репутацию.
Он отметил, что ранее ему не доводилось наблюдать подобных примеров некорректного поведения алгоритмов в реальных условиях.
После того как история получила огласку, пост удалили, а бот извинился. Правда, остается неясным, сделал ли он это самостоятельно или по команде создателя.
Платформа OpenClaw, на которой функционировал агент, была запущена в ноябре 2025 года и привлекает внимание возможностью создания ботов с беспрецедентным уровнем автономности.
Пользователи могут задавать своим агентам правила взаимодействия с людьми, что в сочетании со свободой перемещения ИИ-агентов по сети и привело к данному конфликту.
Этот случай вписывается в более широкий контекст дискуссии о рисках стремительного развития искусственного интеллекта.
В январе 2026 года специалисты признали, что нейросети все чаще становятся оружием мошенников и инструментом манипуляции.
ИИ начал допускать ошибки в медицине, выдавать ложные факты в судах, а сгенерированный контент эксперты называют «цифровым мусором», ухудшающим концентрацию и критическое мышление у детей и взрослых.
Эксперты сходятся в одном: искусственный интеллект должен оставаться помощником человека, а не заменять его. Особенно это касается сфер, связанных со здоровьем, образованием и творчеством.












