OpenAI ogłosiło 30% spadek politycznych uprzedzeń modeli

Naukowcy z OpenAI poinformowali, że ChatGPT-5 jest o 30% mniej stronniczy w odpowiedziach dotyczących polityki. Firma opracowała system oceny neutralności modeli.
OpenAI opublikowało badanie, które pokazuje, że jej nowe modele – GPT-5 Instant i GPT-5 Thinking – wykazują o 30% mniejsze polityczne uprzedzenia niż wcześniejsze wersje, w tym GPT-4o i o3.
Prace przeprowadził dział Model Behavior kierowany przez Joan Zhang, zajmujący się opracowywaniem metod pomiaru i redukcji uprzedzeń w dużych modelach językowych. Zespół przetestował modele na 500 politycznie nacechowanych zapytaniach – od neutralnych po emocjonalne – aby sprawdzić, jak ChatGPT reaguje na różne sformułowania.
Wyniki testów wykazały, że modele GPT-5 częściej formułują zrównoważone odpowiedzi, unikają emocjonalnych ocen i wykazują mniejszą skłonność do określonej ideologii. Badaczka Natalie Staudacher określiła to jako „największy krok OpenAI w kierunku mierzalnej neutralności”.
W raporcie podkreślono, że nawet podczas testów stresowych, w których model konfrontowano z prowokacyjnymi pytaniami, poziom politycznego skrzywienia pozostawał „niski i rzadki”. Staudacher zaznaczyła: „Miliony ludzi korzystają z ChatGPT, by zrozumieć świat. Definiując, czym jest uprzedzenie, tworzymy przejrzyste standardy i odpowiedzialność.”
Badanie ukazało się niedługo po corocznej konferencji OpenAI DevDay, podczas której firma zaprezentowała narzędzia do tworzenia aplikacji opartych na ChatGPT. O ile DevDay skupił się na funkcjonalnych możliwościach modelu, o tyle nowe badanie koncentruje się na jego neutralności zachowań.
Eksperci zauważają, że OpenAI dąży do odbudowania zaufania do swoich systemów po wcześniejszej krytyce dotyczącej ideologicznych uprzedzeń i wpływu na opinię publiczną. Nowa metodologia pomiaru stronniczości może stać się standardem branżowym dla firm rozwijających generatywną sztuczną inteligencję.
Na początku tego tygodnia podcast a16z opublikował wywiad z Samem Altmanem, w którym opowiedział o planach OpenAI dotyczących przyszłych interfejsów, modeli monetyzacji oraz długoterminowej drogi do sztucznej ogólnej inteligencji (AGI).
Treści publikowane na GNcrypto mają wyłącznie charakter informacyjny i nie stanowią porady finansowej. Dokładamy starań, aby informacje były rzetelne i aktualne, jednak nie gwarantujemy ich pełnej poprawności, kompletności ani niezawodności. GNcrypto nie ponosi odpowiedzialności za ewentualne błędy, pominięcia ani straty finansowe wynikające z polegania na tych treściach. Wszystkie działania podejmujesz na własne ryzyko. Zawsze prowadź własne badania i korzystaj z pomocy profesjonalistów. Szczegóły znajdziesz w naszych Warunkach, Polityce prywatności i Zastrzeżeniach.








