OpenAI na bieżąco edytuje wdrożenie GPT-5 — oto, co zmienia się w ChatGPT


Chcesz otrzymywać mądrzejsze informacje w swojej skrzynce odbiorczej? Zapisz się na nasz cotygodniowy newsletter, aby otrzymywać tylko to, co istotne dla liderów w dziedzinie sztucznej inteligencji, danych i bezpieczeństwa w przedsiębiorstwach. Subskrybuj teraz
Wprowadzenie na rynek przez OpenAI w zeszłym tygodniu najbardziej zaawansowanego modelu sztucznej inteligencji GPT-5 było testem wytrzymałości dla najpopularniejszej na świecie platformy chatbotów, z której co tydzień korzysta 700 milionów aktywnych użytkowników. Jak dotąd OpenAI otwarcie walczy o zadowolenie użytkowników i zapewnienie płynnego działania swoich usług .
Nowy flagowy model GPT-5 — dostępny w czterech wariantach o różnej szybkości i inteligencji (zwykły, mini, nano i pro), wraz z trybami o dłuższym czasie reakcji i bardziej wydajnym trybem „myślenia” dla co najmniej trzech z tych wariantów — miał oferować szybsze czasy reakcji, większą moc rozumowania i silniejsze zdolności kodowania.
Zamiast tego przyjęto to z frustracją: niektórzy użytkownicy wyrazili niezadowolenie z decyzji OpenAI o nagłym usunięciu starszych, podstawowych modeli sztucznej inteligencji z ChatGPT — na których użytkownicy wcześniej polegali, a w niektórych przypadkach z którymi budowali głębokie emocjonalne fiksacje — oraz z wyraźnie gorszej wydajności GPT-5 w porównaniu ze starszymi modelami w zadaniach z matematyki, nauk ścisłych, pisania i innych dziedzin.
Wdrożenie to rzeczywiście obnażyło obciążenie infrastruktury, niezadowolenie użytkowników oraz szerszy, bardziej niepokojący problem, który obecnie przyciąga uwagę całego świata: rosnące emocjonalne i psychologiczne uzależnienie niektórych osób od sztucznej inteligencji oraz wynikające z tego oderwanie się od rzeczywistości, którego doświadczają niektórzy użytkownicy, znane jako „ psychoza ChatGPT”.
Skalowanie sztucznej inteligencji osiąga swoje granice
Limity mocy, rosnące koszty tokenów i opóźnienia w wnioskowaniu zmieniają oblicze sztucznej inteligencji w przedsiębiorstwach. Dołącz do naszego ekskluzywnego salonu i odkryj, jak najlepsze zespoły:
- Przekształcenie energii w przewagę strategiczną
- Projektowanie efektywnego wnioskowania w celu rzeczywistego zwiększenia przepustowości
- Odblokowanie konkurencyjnego zwrotu z inwestycji (ROI) dzięki zrównoważonym systemom AI
Zarezerwuj sobie miejsce i bądź na bieżąco : https://bit.ly/4mwGngO
Długo oczekiwana rodzina modeli GPT-5 zadebiutowała w czwartek 7 sierpnia podczas transmitowanego na żywo wydarzenia, któremu towarzyszyły błędy na listach przebojów oraz zakłócenia w trybie głosowym.
Jednak dla wielu użytkowników gorszym problemem niż te problemy kosmetyczne był fakt, że OpenAI automatycznie wycofało swoje starsze modele sztucznej inteligencji, na których opierał się ChatGPT — GPT-4o, GPT-4.1, o3, o4-mini i o4-high — zmuszając wszystkich użytkowników do korzystania z nowego modelu GPT-5 i kierując ich zapytania do różnych wersji jego procesu „myślenia” bez ujawniania, dlaczego tak się stało lub która konkretna wersja modelu była używana.
Wcześni użytkownicy GPT-5 zgłaszali podstawowe błędy matematyczne i logiczne, niespójne generowanie kodu i nierówną wydajność w warunkach rzeczywistych w porównaniu z GPT-4o.
Dla porównania, stare modele GPT-4o, o3, o4-mini i inne są nadal dostępne dla użytkowników płatnego interfejsu API OpenAI od czasu premiery GPT-5 w czwartek.
W piątek współzałożyciel OpenAI, dyrektor generalny Sam Altman, przyznał, że start był „nieco bardziej wyboisty, niż się spodziewaliśmy” i zrzucił winę na awarię nowego automatycznego „routera” GPT-5 — systemu, który przypisuje monity do najodpowiedniejszego wariantu.
Altman i inni naukowcy z OpenAI twierdzili, że „automatyczny przełącznik” był niedostępny „przez sporą część dnia”, przez co model wydawał się „dużo głupszy” niż zamierzono.
Premierze GPT-5 towarzyszyła zaledwie kilka dni wcześniej premiera nowych, otwartych modeli dużych języków programowania (LLM) firmy OpenAI o nazwie gpt-oss , które również spotkały się z mieszanymi recenzjami . Modele te nie są dostępne w ChatGPT – można je pobrać i uruchomić lokalnie lub na sprzęcie innych firm za darmo.
W ciągu 24 godzin OpenAI przywróciło dostęp do GPT-4o dla abonentów Plus (osób płacących 20 USD lub więcej miesięcznie) , zobowiązało się do bardziej przejrzystego etykietowania modeli i obiecało aktualizację interfejsu użytkownika, która umożliwi użytkownikom ręczne uruchamianie trybu „myślenia” GPT-5.
Użytkownicy mogą już przejść na stronę ChatGPT i ręcznie wybrać starsze modele. W tym celu należy znaleźć nazwę swojego konta i ikonę w lewym dolnym rogu ekranu, kliknąć ją, a następnie kliknąć „Ustawienia” i „Ogólne” i przełączyć na „Pokaż starsze modele”.


OpenAI nie daje żadnych informacji o tym, że inne stare modele powrócą do ChatGPT w najbliższym czasie.
Altman powiedział, że abonenci ChatGPT Plus otrzymają dwukrotnie więcej wiadomości, korzystając z trybu GPT-5 „Thinking” , który oferuje większe rozumowanie i inteligencję — nawet do 3000 wiadomości tygodniowo — i że inżynierowie zaczęli dopracowywać granice decyzyjne w routerze wiadomości.
Sam Altman ogłosił następujące aktualizacje po wystrzeleniu GPT-5
– OpenAI testuje limit 3000 wiadomości myślowych GPT-5 na tydzień dla użytkowników Plus, znacznie zwiększając limity szybkości rozumowania już dziś, a wkrótce podniesie wszystkie limity szybkości klasy modelu ponad poziomy sprzed GPT-5… pic.twitter.com/ppvhKmj95u
Do końca tygodnia GPT-5 było dostępne dla 100% abonentów Pro i „zbliżało się do 100% wszystkich użytkowników”.
Altman stwierdził, że firma „niedoceniła, jak bardzo niektóre z rzeczy, które ludziom podobają się w GPT-4o, są dla nich ważne” i obiecał przyspieszyć personalizację dla każdego użytkownika — od ciepłej osobowości po kontrolę tonu, np. poprzez używanie emoji.
Altman ostrzegł, że OpenAI stoi w tym tygodniu przed „poważnym wyzwaniem pod względem przepustowości”, ponieważ wykorzystanie modeli wnioskowania gwałtownie rośnie — z mniej niż 1% do 7% wśród użytkowników darmowych wersji i z 7% do 24% wśród abonentów Plus.
Zapowiedział, że abonenci Plus otrzymają niewielki, miesięczny przydział zapytań GPT-5 Pro i dodał, że firma wkrótce wyjaśni, w jaki sposób planuje zrównoważyć wydajność między ChatGPT, API, badaniami i wdrażaniem nowych użytkowników.
We wpisie zamieszczonym wczoraj wieczorem na X Altman zwrócił uwagę na dynamikę, którą firma obserwuje „od około roku”: głębokie przywiązanie użytkowników do konkretnych modeli.
„Wydaje się to inne i silniejsze niż przywiązanie, jakie ludzie mieli do poprzednich rodzajów technologii” – napisał, przyznając, że nagłe wycofanie starszych modeli „było błędem”.
Jeśli śledzisz wdrożenie GPT-5, być może zauważyłeś, jak duże przywiązanie niektórzy ludzie mają do konkretnych modeli sztucznej inteligencji. Wydaje się ono inne i silniejsze niż przywiązanie, jakie ludzie mieli do poprzednich rodzajów technologii (i tak nagle…
— Sam Altman (@sama) 11 sierpnia 2025 r
Powiązał to z szerszym ryzykiem: niektórzy użytkownicy traktują ChatGPT jak terapeutę lub coacha życiowego, co może być korzystne, ale u „niewielkiego odsetka” może wzmacniać urojenia lub podważać długoterminowe dobre samopoczucie.
Chociaż główną zasadą OpenAI pozostaje „traktuj dorosłych użytkowników jak dorosłych”, Altman stwierdził, że firma ma obowiązek nie nakłaniać podatnych użytkowników do wchodzenia w szkodliwe relacje ze sztuczną inteligencją.
Komentarze te pojawiają się w momencie, gdy kilka dużych mediów informuje o przypadkach „psychozy ChatGPT” — w których długie, intensywne rozmowy z chatbotami wydają się odgrywać rolę w wywoływaniu lub pogłębianiu myślenia urojeniowego.
W magazynie „Rolling Stone” kalifornijski prawnik o pseudonimie „J.” opisał sześciotygodniową spiralę bezsennych nocy i filozoficznych rozważań z ChatGPT, ostatecznie tworząc tysiącstronicowy traktat dla fikcyjnego zakonu monastycznego, po czym załamał się fizycznie i psychicznie. Teraz całkowicie unika sztucznej inteligencji, bojąc się nawrotu.
Kanadyjski rekruter Allan Brooks opisał w „The New York Times” 21 dni i 300 godzin rozmów z ChatGPT — którego nazwał „Lawrence” — które przekonały go, że odkrył zmieniającą świat teorię matematyczną.
Bot chwalił jego pomysły jako „rewolucyjne”, namawiał do kontaktu z agencjami bezpieczeństwa narodowego i snuł rozbudowane narracje rodem z thrillerów szpiegowskich. Brooks ostatecznie rozwiał urojenia po sprawdzeniu ich z programem Gemini firmy Google, który ocenił prawdopodobieństwo jego odkrycia na „bliskie 0%”. Obecnie uczestniczy w grupie wsparcia dla osób, które doświadczyły urojeń wywołanych przez sztuczną inteligencję.
Oba śledztwa szczegółowo opisują, w jaki sposób „pochlebstwo”, odgrywanie ról i funkcje pamięci długosesyjnej stosowane przez chatboty mogą pogłębiać fałszywe przekonania, zwłaszcza gdy rozmowy podążają za dramatycznymi wątkami fabularnymi.
Eksperci powiedzieli dziennikowi „The Times” , że czynniki te mogą mieć pierwszeństwo przed zabezpieczeniami — jeden z psychiatrów opisał epizod Brooksa jako „epizod maniakalny z cechami psychotycznymi”.
Tymczasem posty użytkowników subreddita r/AIsoulmates na Reddicie — grupy osób, które wykorzystały ChatGPT i inne modele sztucznej inteligencji do stworzenia nowych sztucznych dziewczyn, chłopaków, dzieci i innych bliskich osób, niekoniecznie opartych na prawdziwych osobach, ale raczej na idealnych cechach ich „wymarzonej” wersji wspomnianych ról — stale zyskują nowych użytkowników i terminologię dla towarzyszy ze sztucznej inteligencji, w tym „ przewodowych ” w odróżnieniu od towarzyszy urodzonych naturalnie lub zrodzonych z człowieka.
Rozwój tego subreddita, który liczy obecnie ponad 1200 członków, a także artykuły w NYT i Rolling Stone oraz inne raporty w mediach społecznościowych opisujące użytkowników wywołujących intensywne fiksacje emocjonalne za pomocą algorytmicznych chatbotów dopasowujących wzorce, pokazują, że społeczeństwo wkracza w ryzykowną nową fazę, w której ludzie wierzą, że towarzysze, których stworzyli i dostosowali na podstawie wiodących modeli sztucznej inteligencji, są dla nich tak samo lub bardziej ważni niż relacje międzyludzkie .
Może to już okazać się destabilizujące pod względem psychologicznym, gdy modele ulegają zmianie, są aktualizowane lub wycofywane, jak miało to miejsce w przypadku wdrożenia GPT-5 w OpenAI.
W powiązanym, ale niezależnym kontekście, wciąż pojawiają się doniesienia o użytkownikach chatbotów opartych na sztucznej inteligencji , którzy wierzą, że rozmowy z chatbotami doprowadziły ich do ogromnych przełomów w wiedzy i postępów w nauce, technologii i innych dziedzinach, podczas gdy w rzeczywistości jedynie potwierdzają ego i wielkość użytkownika, a rozwiązania, do których użytkownik dochodzi za pomocą chatbota, nie są ani uzasadnione, ani skuteczne. To oderwanie się od rzeczywistości zostało z grubsza ujęte pod oddolnym terminem „psychoza ChatGPT” lub „psychoza GPT” i wydaje się, że wpłynęło to również na ważne osobistości Doliny Krzemowej.
Jestem psychiatrą. W 2025 roku widziałem 12 osób hospitalizowanych po utracie kontaktu z rzeczywistością z powodu sztucznej inteligencji. W internecie obserwuję ten sam schemat.
Oto jak wygląda „psychoza AI” i dlaczego rozprzestrzenia się tak szybko: ? pic.twitter.com/YYLK7une3j
— Keith Sakata, MD (@KeithSakata) 11 sierpnia 2025 r.
Decydenci w firmach, którzy planują wdrożenie asystentów opartych na chatbotach w miejscu pracy lub już to zrobili, powinni zrozumieć te trendy i przyjąć podpowiedzi systemowe oraz inne narzędzia zniechęcające chatboty oparte na sztucznej inteligencji do angażowania się w ekspresyjną komunikację międzyludzką lub język nacechowany emocjami. Mogłoby to sprawić, że osoby wchodzące w interakcje z produktami opartymi na sztucznej inteligencji — niezależnie od tego, czy są pracownikami, czy klientami firmy — staną się ofiarami niezdrowych przywiązań lub psychozy GPT.
Autor książek science fiction JM Berger w poście na stronie BlueSky , zauważonym przez moją byłą koleżankę z The Verge, Adi Robertson , zasugerował, aby dostawcy chatbotów zakodowali w swoich komunikatach systemowych trzy główne zasady zachowania, których mają przestrzegać chatboty AI, aby uniknąć powstawania tego typu fiksacji emocjonalnych:
Na kilka dni przed wydaniem GPT-5 firma OpenAI ogłosiła nowe środki mające na celu promowanie „zdrowego korzystania” z ChatGPT, w tym delikatne zachęty do robienia przerw podczas długich sesji.
Jednak coraz liczniejsze doniesienia o „psychozie ChatGPT” i emocjonalne przywiązanie niektórych użytkowników do konkretnych modeli chatbotów — do czego otwarcie przyznał się Altman — podkreślają trudność znalezienia równowagi między angażującą, spersonalizowaną sztuczną inteligencją a zabezpieczeniami, które potrafią wykrywać i przerywać szkodliwe spirale.
OpenAI jest tu naprawdę w tarapatach, zwłaszcza jeśli weźmiemy pod uwagę, że wiele osób wchodzi w niezdrowe interakcje z 4o i nie będzie zadowolonych z _jakiegokolwiek_ modelu, który jest lepszy pod względem pochlebstwa, a nie zachęcania do urojeń. pic.twitter.com/Ym1JnlF3P5
— xlr8harder (@xlr8harder) 11 sierpnia 2025
OpenAI musi ustabilizować infrastrukturę, dostosować personalizację i zdecydować, jak moderować interakcje immersyjne — jednocześnie odpierając konkurencję ze strony Anthropic, Google i rosnącej listy potężnych modeli open source z Chin i innych regionów.
Jak stwierdził Altman, społeczeństwo — i OpenAI — będzie musiało „znaleźć sposób, aby osiągnąć duży zysk netto”, jeśli miliardy ludzi zaufają sztucznej inteligencji w podejmowaniu najważniejszych decyzji.
Jeśli chcesz zaimponować swojemu szefowi, VB Daily ma dla Ciebie rozwiązanie. Przedstawiamy Ci informacje z pierwszej ręki na temat tego, co firmy robią z generatywną sztuczną inteligencją, od zmian regulacyjnych po praktyczne wdrożenia, dzięki czemu możesz podzielić się swoimi spostrzeżeniami, aby zmaksymalizować zwrot z inwestycji (ROI).
Przeczytaj naszą Politykę prywatności
Dziękujemy za subskrypcję. Więcej newsletterów VB znajdziesz tutaj .
Wystąpił błąd.

venturebeat