В декабре 2025 года предприниматель и глава нескольких технологических компаний Илон Маск выступил с заявлением о необходимости замедлить прогресс в области искусственного интеллекта и робототехники.
По его словам, стремительное развитие технологий создаёт серьёзные риски для безопасности, этики и контроля, поскольку человечество может не успеть выработать эффективные механизмы регулирования, сообщает CNews.
Маск подчеркнул, что уровень внимания к вопросам безопасности должен соответствовать масштабам технологического прорыва. Он выразил сомнения в способности существующих государственных и институциональных механизмов справиться с рисками, связанными с автономными системами и мощными ИИ‑моделями.

По мнению предпринимателя, отсутствие чётких правовых и этических рамок может привести к непредвиденным последствиям для общества и глобальной стабильности.
Особое внимание Маск уделил необходимости разработки международных норм и правил, которые позволят контролировать внедрение наиболее мощных технологий. Он отметил, что ИИ должен оставаться инструментом на службе человека, а не превращаться в угрозу.
Среди приоритетных направлений он назвал прозрачность алгоритмов, независимую оценку рисков и формирование глобального консенсуса относительно границ применения ИИ.
Основатель Tesla и SpaceX также обратил внимание на то, что современные разработки в области машинного обучения уже приближаются к уровню сложности, при котором общество может столкнуться с трудностями в понимании и контроле.
По его мнению, внедрение подобных технологий в критически важные сферы — энергетику, транспорт, здравоохранение или оборону — должно сопровождаться тщательным обсуждением и согласованием правил безопасности.
Заявления Маска стали частью широкой дискуссии, которая в 2025 году активно разворачивается в научном и экспертном сообществе. Многие специалисты сходятся во мнении, что ускорение разработки ИИ должно сопровождаться усилением регулирования и прозрачности.
На фоне этих обсуждений более тысячи общественных деятелей и знаменитостей подписали открытое письмо с призывом запретить разработку сверхразумного ИИ до тех пор, пока не будет достигнут научный и общественный консенсус о его безопасности.
Среди подписантов — Ричард Брэнсон, Стив Возняк, Яан Таллинн, Стивен Фрай, а также лауреаты Нобелевской премии Джеффри Хинтон, Дарон Аджемоглу, Джон Мазер и Франк Вильчек.












