Принц Гарри и техно-пионеры выступили против сверхразумного ИИ

Фото - Принц Гарри и техно-пионеры выступили против сверхразумного ИИ
22 октября 2025 года коалиция из лауреатов Нобелевской премии, деятелей культуры и журналистов консервативных медиа, опубликовала обращение с призывом ввести мораторий на разработку так называемого «суперинтеллекта».
Авторы инициативы заявляют, что создание сверхразумных систем должно быть приостановлено до тех пор, пока не будет достигнут научный консенсус относительно их безопасности и не появится явная общественная поддержка. Среди подписантов — профессор когнитивной психологии Джеффри Хинтон, профессор университета Монреаля и пионер нейросетей Йошуа Бенджио, со‑основатель Apple Стив Возняк, Ричард Брэнсон, Мэри Робинсон и Стивен Фрай. Петицию подписали даже принц Гарри и Меган Маркл.

Союз таких разноплановых специалистов и личностей отражает растущую в США скептическую повестку вокруг амбиций Кремниевой долины и одновременно дает формальный повод для жесткого регулирования этой сферы.

Организатором кампании выступил Future of Life Institute (FLI), много лет продвигающий идею «принципа предосторожности» применительно к самым мощным системам ИИ. В заявлении сторонники запрета предупреждают о масштабном вытеснении людей с рынка труда, эрозии гражданских свобод, угрозах национальной безопасности и, в худшем сценарии, об экзистенциальных рисках, если разработки выйдут из‑под контроля.
При этом критика адресована не пользователям ИИ-приложений, а крупнейшим технологическим компаниям, которые публично заявляют о конкурентной гонке на пути к системам, потенциально превосходящим человека.

Текущая инициатива стала продолжением более раннего, но менее категоричного призыва «поставить на паузу» неконтролируемые эксперименты с ИИ, прозвучавшего весной 2023 года и собравшего десятки тысяч подписей, включая руководителей индустрии и исследователей. Тогда идею активно обсуждали на научных конференциях и в СМИ, однако это никого не остановило: крупнейшие лаборатории продолжили наращивать вычислительные мощности и выпускать все более универсальные модели.

Сегодняшний документ вряд ли приведет к немедленному мораторию на разработку, но он может открыть окно возможностей для регуляторов. Они теперь могут настаивать на прозрачном лицензировании, независимых аудитах, стресс‑тестах и публичной отчетности разработчиков ИИ.

Вероятны также парламентские слушания и новые законопроекты об ограничениях на источники данных для обучения нейросети и о лимитах на концентрацию вычислительных ресурсов.

Критики, конечно, уже предупреждают об угрозе «перерегулирования» и потери темпа инноваций. Но сам факт редкой коалиции, от Гарри и Меган до Бэннона и Бека, делает этот призыв одной из самых заметных попыток перехватить повестку вокруг будущего ИИ.