Książę Harry i pionierzy technologii sprzeciwili się rozwojowi SuperAI

22 października 2025 r. koalicja laureatów Nagrody Nobla, ludzi kultury i dziennikarzy mediów konserwatywnych opublikowała oświadczenie wzywające do wstrzymania rozwoju tzw. „superinteligencji”.
Wybitni działacze nauki i kultury uważają to za niemożliwe, dopóki nie powstanie naukowy konsensus co do jego bezpieczeństwa i nie pojawi się wyraźne poparcie społeczne. Wśród sygnatariuszy są profesor psychologii kognitywnej Geoffrey Hinton, profesor Uniwersytetu w Montrealu i pionier sieci neuronowych Yoshua Bengio, współzałożyciel Apple Steve Wozniak, Richard Branson, Mary Robinson i Stephen Fry. Petycję podpisali nawet książę Harry i Meghan Markle.
Sojusz tak różnorodnych specjalistów i osobistości odzwierciedla rosnącą w USA sceptyczną narrację wokół ambicji Doliny Krzemowej, a jednocześnie daje formalny pretekst do surowej regulacji tej dziedziny.
Organizatorem kampanii wystąpił Future of Life Institute (FLI), który od wielu lat promuje ideę „zasady ostrożności” w stosunku do najpotężniejszych systemów AI. W oświadczeniu zwolennicy zakazu ostrzegają przed masowym wypieraniem ludzi z rynku pracy, erozją swobód obywatelskich, zagrożeniami dla bezpieczeństwa narodowego oraz, w najgorszym scenariuszu, przed ryzykiem egzystencjalnym, jeśli prace wymkną się spod kontroli.
Przy tym krytyka nie jest skierowana do użytkowników aplikacji AI, lecz do największych firm technologicznych, które publicznie ogłaszają wyścig konkurencyjny w kierunku systemów potencjalnie przewyższających człowieka.
Obecna inicjatywa wywodzi się z wcześniejszego, lecz mniej kategorycznego wezwania do „wstrzymania” niekontrolowanych eksperymentów z AI, które miało miejsce wiosną 2023 roku i zebrało dziesiątki tysięcy podpisów, w tym szefów branży i badaczy. Wtedy pomysł ten był aktywnie dyskutowany na konferencjach naukowych i w mediach, jednak to nikogo nie powstrzymało: największe laboratoria kontynuowały zwiększanie mocy obliczeniowej i wypuszczanie coraz bardziej uniwersalnych modeli.
Dzisiejszy dokument raczej nie doprowadzi do natychmiastowego moratorium na rozwój, ale może otworzyć okno możliwości dla regulatorów. Mogą oni teraz nalegać na przejrzyste licencjonowanie, niezależne audyty, testy warunków skrajnych (stress-testy) i publiczną sprawozdawczość deweloperów AI.
Prawdopodobne są także przesłuchania parlamentarne i nowe projekty ustaw o ograniczeniach źródeł danych do szkolenia sieci neuronowych oraz o limitach koncentracji zasobów obliczeniowych.
Krytycy, oczywiście, już ostrzegają przed zagrożeniem „nadmierną regulacją” i utratą tempa innowacji. Jednak sam fakt rzadkiej koalicji, od Harry’ego i Meghan po Bannona i Becka, czyni to wezwanie jedną z najbardziej widocznych prób przejęcia narracji na temat przyszłości AI.
Treści publikowane na GNcrypto mają wyłącznie charakter informacyjny i nie stanowią porady finansowej. Dokładamy starań, aby informacje były rzetelne i aktualne, jednak nie gwarantujemy ich pełnej poprawności, kompletności ani niezawodności. GNcrypto nie ponosi odpowiedzialności za ewentualne błędy, pominięcia ani straty finansowe wynikające z polegania na tych treściach. Wszystkie działania podejmujesz na własne ryzyko. Zawsze prowadź własne badania i korzystaj z pomocy profesjonalistów. Szczegóły znajdziesz w naszych Warunkach, Polityce prywatności i Zastrzeżeniach.









