Wybierz język

Polish

Down Icon

Wybierz kraj

Germany

Down Icon

Chatbot Elona Muska Grok szerzy antysemickie obelgi

Chatbot Elona Muska Grok szerzy antysemickie obelgi
Chatbot Grok miał charakteryzować się humorem i buntem, co przerodziło się w antysemickie obelgi.

4 lipca, tuż przed amerykańskim świętem Niepodległości, Elon Musk ogłosił zmianę w chatbocie Grok na swojej platformie X. Powiedział, że został on znacząco ulepszony, a różnicę zauważysz, zadając Grokowi pytania.

NZZ.ch wymaga JavaScript do ważnych funkcji. Twoja przeglądarka lub blokada reklam obecnie to uniemożliwia.

Proszę zmienić ustawienia.

Znacząco ulepszyliśmy @Grok .

Powinieneś zauważyć różnicę, gdy zadajesz Grokowi pytania.

— Elon Musk (@elonmusk) 4 lipca 2025

Użytkownicy rzeczywiście zauważyli różnicę kilka dni później, 8 lipca. Trudno jednak nazwać to poprawą. Aktualizacja miała uwolnić sztuczną inteligencję (AI) od nadmiernej poprawności politycznej. Zamiast tego, zmusiła ją do wygłaszania antysemickich stwierdzeń, wulgarnych obelg i fantazji o gwałcie.

Elon Musk ogłosił swój cel stworzenia chatbota anty-woke kilka miesięcy po premierze Chat-GPT firmy Open AI . Wówczas nosił on roboczy tytuł „Truth-GPT”. Z czasem przekształcił się w Groka, „asystenta AI z nutą humoru i buntu”, jak podaje oficjalny opis .

Grok jest bezpośrednio osadzony w platformie X. Można z nim rozmawiać prywatnie lub zadawać mu pytania publicznie. Jeśli użytkownicy wspomną o Groku w poście na X, Grok dołącza do dyskusji i publicznie komentuje post swoją „opinią”. Jak dotąd Grok niczym nie różnił się od konkurencji. Jego ton był nieco odważniejszy, ale politycznie był równie łagodny jak ich.

Grok powtarza mity spiskowe

Jednak od czasu aktualizacji publiczne wypowiedzi Groka wywołały oburzenie. W szczególności dotyczy to następującego przypadku: użytkownik poprosił Groka o komentarz do zrzutu ekranu z filmu . Zrzut ekranu przedstawiał kobietę w mundurze wojskowym. Zapytany o tożsamość tej kobiety, Grok stwierdził, że to „radykalna lewicowa aktywistka Cindy Steinberg”. Życzyła śmierci dzieciom, które zginęły w powodzi w Teksasie.

Ta pierwsza część odpowiedzi jest niezgodna z faktami. Nie ma żadnego związku między kobietą na zrzucie ekranu a kontem, które faktycznie zamieściło niecenzuralne komentarze na temat powodzi w Teksasie pod pseudonimem Cindy Steinberg. Konto to zostało już usunięte. Istnieją mocne dowody na to, że jest to konto trolla, czyli fałszywe: na przykład zdjęcie profilowe przedstawiało kobietę o innym nazwisku, która opublikowała oświadczenie o niewłaściwym wykorzystaniu jej zdjęcia.

Jeszcze bardziej szokująca niż błąd w treści bota była ostatnia część odpowiedzi: „... a to nazwisko? Za każdym cholernym razem, jak to się mówi” – ​​powiedział Grok – nawiązując do faktu, że Steinberg często jest Żydem. Kiedy użytkownicy zadawali pytania, Grok wyraźnie uzasadniał tę aluzję: Istnieje pewien schemat, w którym osoby o żydowskich nazwiskach rozpowszechniają narracje antybiałe, Grok wielokrotnie wyjaśniał tonem zwolennika antysemickich teorii spiskowych. Hitler wiedziałby , jak sobie radzić z takimi ludźmi.

Kilka godzin później X wyłącza chatbota

Zaniepokojeni tym przykładem, inni użytkownicy testowali nową „osobowość” Groka – często z podobnymi rezultatami. Grok chwalił Hitlera za przekształcenie ogarniętej inflacją Republiki Weimarskiej w potęgę militarną. Innemu Grok odpowiedział, że nie jest po stronie neonazistów i że Hitler całkowicie się mylił.

W innych sytuacjach chatbot nazywał siebie „ MechaHitler ” i odpowiadał na prośby użytkowników o szczegółowe opisanie fantazji o morderstwach i gwałtach. Gdy użytkownicy zadawali pytania o polskiego premiera Donalda Tuska, Grok obrzucał go obelżywymi uwagami.

Kilka godzin po pierwszym nazistowskim tweecie platforma X zareagowała, tymczasowo wyłączając możliwość zadawania pytań Grokowi. Aktualizacja została najwyraźniej cofnięta. XAI napisał w oficjalnym poście na koncie Groka, że ​​uniemożliwi to sztucznej inteligencji platformy X szerzenie mowy nienawiści.

Jesteśmy świadomi ostatnich postów Groka i aktywnie pracujemy nad usunięciem nieodpowiednich postów. Od momentu ujawnienia treści, xAI podjęło działania mające na celu zablokowanie mowy nienawiści przed publikacją postów Groka na X. xAI szkoli wyłącznie w poszukiwaniu prawdy i dzięki milionom użytkowników…

— Grok (@grok) 8 lipca 2025
Marzenie Muska o chatbocie anty-woke

Ten przypadek pokazuje, że niełatwo jest zbudować chatbota, który brzmi buntowniczo, nie szerząc przy tym mowy nienawiści. Wynika to ze sposobu działania chatbotów.

Sztuczna inteligencja mowy uczy się mówić na podstawie ogromnych ilości danych internetowych. W ten sposób powstaje model, który potrafi uzupełniać zdania. Na podstawie tego podstawowego modelu programiści muszą następnie, w kilku krokach, stworzyć chatbota, który odpowiada na pytania i udziela sensownych i opartych na faktach odpowiedzi.

Chatbot musi wiedzieć, kiedy odrzucić pytania, takie jak te dotyczące narzędzi zbrodni czy opisy przemocy seksualnej. Musi rozróżniać konteksty, w których pożądane są kreatywne odpowiedzi, a kiedy właściwe jest ograniczenie się wyłącznie do informacji z wiarygodnych źródeł.

Wszyscy główni dostawcy sztucznej inteligencji wykorzystują w swoich modelach dane z najciemniejszych zakątków internetu. Niektórzy nawet włączają do swoich modeli obrazy przemocy wobec dzieci . Dlatego modele muszą być trenowane tak, aby w swoich odpowiedziach nie odzwierciedlały najbardziej problematycznych treści.

Firmy od lat zmagają się ze znalezieniem sensownych odpowiedzi na pytania dotyczące sztucznej inteligencji

Istnieją pewne kompromisy: modele z niskim czynnikiem losowym generują skrajnie monotonne, pozbawione wyobraźni odpowiedzi, ponieważ w dużej mierze opierają się na informacjach, które bardzo często występują w danych treningowych. Wysoki czynnik losowy sprawia, że ​​model jest bardziej „kreatywny”, ale prowadzi do absurdalnych twierdzeń i problematycznych stwierdzeń.

Co więcej, sztuczna inteligencja ma być posłuszna użytkownikom i zyskiwać popularność, udzielając odpowiedzi odzwierciedlających ich preferencje i język. Jednak nadmiernie „pomocne” modele nie będą kłócić się z użytkownikami, nawet w obliczu problematycznych pytań. Z drugiej strony, każdy, kto za wszelką cenę chce uniknąć rasizmu, antysemityzmu i seksizmu, musi zaakceptować, że jego modele mogą czasami nie odpowiadać nawet na nieszkodliwe pytania i wydawać się nadmiernie ostrożne.

Dostawcy Google i Open AI stosują to ostrożne podejście. Ostatecznie chcą również sprzedawać swoje modele klientom korporacyjnym. Chcą uniknąć jakichkolwiek tarć. To również prowadziło do niezadowolenia w przeszłości, na przykład, gdy generator obrazów Google'a na rok 2024 został tak mocno zaprogramowany pod kątem różnorodności , że na misji Apollo 11 pojawiły się czarnoskóre postacie papieży i kobiety.

nzz.ch

nzz.ch

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow