Naukowcy twierdzą, że sztuczna inteligencja zniszczy ludzkość za pomocą broni biologicznej w 2030 roku: Czy to realistyczne?

Rok temu przeprowadziłem wywiad z niezwykle bystrym historykiem, Yuvalem Hararim . Myśliciel ten sprzedał miliony książek; po swoim bestsellerze „Krótka historia ludzkości” pisał o technologii i przyszłości. Zapytałem go wtedy o prognozę: kiedy i jak zakończy się krótka historia ludzkości? Jego odpowiedź utkwiła mi w pamięci na długo.
Powiedział, że wszystko zależy od nas – nie pod względem klimatu, nie pod względem ewentualnej wielkiej wojny, ale od naszej relacji ze sztuczną inteligencją : „ Jeśli podejmiemy złe decyzje , to wszystko wkrótce się skończy, być może nawet za naszego życia. Wyginięcie gatunku nie nastąpiło nawet podczas wojen światowych, ale sztuczna inteligencja to nie pojedynczy superkomputer, to zupełnie nowy gatunek, nowy rodzaj istoty. Musimy myśleć o świecie zamieszkanym przez miliardy agentów sztucznej inteligencji, którzy są naprawdę wszędzie”.
To był pierwszy raz, kiedy usłyszałem o „agentach” w tym kontekście. Brzmi to trochę jak 007 i Men of Grey z Momo, i zawsze brzmi trochę jak fikcja i Hollywood, gdy mówi się o szybkim rozwoju AI. Ale ci agenci nie są szpiegami; są nowymi wersjami, nowymi „koncepcjami” sztucznej inteligencji. W tym tygodniu Sam Altmann , prezes firmy programistycznej OpenAI i jej obecnie najpotężniejszej AI, ChatGPT, zaprezentował swojego najnowszego „agenta”, który podobno po raz kolejny dokonał skoku kwantowego pod względem wydajności i autonomii („myśli i działa teraz”, według ChatGPT). I tym razem faktycznie nazywa się tak: „Agent ChatGPT”. Chatbot może samodzielnie podejmować decyzje zakupowe lub przygotowywać ślub. Ale Altmann ostrzegał przed pozwoleniem komuś na dostęp do twoich e-maili. To po prostu zbyt niebezpieczne; nie możesz ufać nowej inteligencji.
Yuval Harari jest jednym z wielu, którzy przez długi czas byli optymistami w kwestii technologii, zanim stali się alarmistami. Wśród nich są wpływowe postacie, takie jak Geoffrey Hinton , nazywany „ojcem chrzestnym sztucznej inteligencji”: informatyk, laureat Nagrody Nobla i pionier sztucznej inteligencji, który dwa lata temu odszedł z Google i od tamtej pory ostrzega przed zagrożeniami i lukami w zabezpieczeniach sztucznej inteligencji. Wyobraź sobie, mówi, posiadanie niezwykle uroczego małego tygryska. Ważne jest również, aby w jakiś sposób upewnić się, że nie zabije cię, gdy dorośnie. Nawet Elon Musk powiedział, że sprawy rozwijają się zbyt szybko i że powinniśmy zatrzymać postęp i na chwilę się zatrzymać.
Sztuczna inteligencja całkowicie przekształci wiele dziedzin życia w nadchodzących latach, niszcząc niezliczone miejsca pracy. Krytycy wskazują jednak na coś jeszcze: utratę kontroli. Argumentują to punktami krytycznymi, takimi jak te, które znamy z dyskursu klimatycznego. Momentami, od których nie ma już odwrotu, w których nowy gatunek podejmuje decyzje niezależnie, a my sami jesteśmy z nich wykluczeni, ponieważ utraciliśmy kontrolę nad naszymi decyzjami, naszym życiem, naszym przeznaczeniem.
W połowie 2030 roku sztuczna inteligencja wypuszcza kilkanaście sztuk broni biologicznej w dużych miastachKolejną osobą, która zmieniła stronę, jest Daniel Kokotajlo. Amerykański badacz pracował dla OpenAI i jest obecnie uznawany za sygnalistę w dziedzinie sztucznej inteligencji. Kieruje AI Futures Project, think tankiem z siedzibą w Berkeley. Grupa renegatów opublikowała badanie, które od tamtej pory wywołało gorące debaty w USA: Czy w ogóle musimy ograniczać tę nową władzę i czy w ogóle możemy ją ograniczyć?
Wpływ nadludzkiej sztucznej inteligencji na życie na Ziemi znacznie przewyższyłby wpływ poprzedniej rewolucji przemysłowej. Do 2027 roku wyprzedziłaby ona naszą inteligencję i, według prawdopodobnego „scenariusza” zaproponowanego przez ekspertów, mogłaby unicestwić ludzkość zaledwie trzy lata później. Tekst, badanie oraz esej eksperymentalny można przeczytać online pod adresem https://ai-2027.com/ .
Badanie jest opowiedziane niczym powieść, rozpoczynając się w połowie 2025 roku od rozdziału „Stubling Agents”. Dotyczy ono naszego życia, w którym coraz więcej osób codziennie korzysta z chatbotów, zadając im pytania, prowadząc rozmowy i szukając pomocy. Eksperci twierdzą: sztuczna inteligencja już istnieje, ale jeszcze niewiele potrafi. Jej rozwój będzie kontynuowany w nadchodzących latach.
„OpenBrain” to nazwa nadana w badaniu firmie budującej największe i najpotężniejsze centrum danych; to humorystyczna wariacja na temat prawdziwego OpenAI, z którego autorzy badania zrezygnowali. Również w tym przypadku widoczny jest literacki ton badania. Jednak w dzisiejszych czasach często trudno jest określić, co jest prawdą, a co nie. Autorzy zresztą podchodzą do sprawy bardzo poważnie. Ich praca budziła obawy; wielu, od J.D. Vance'a po „New York Timesa”, poruszało ten temat od tygodni.
Współczesne systemy sztucznej inteligencji (AI) to gigantyczne sztuczne sieci neuronowe, które, według autorów, generują szybki, potencjalnie niebezpieczny „wzrost wykładniczy” poprzez samodoskonalącą się sztuczną inteligencję, a następnie potencjalnie efekt niekontrolowanego wzrostu. Do połowy 2026 roku oznacza to: „Chiny się budzą”. Państwa definiują się poprzez moc obliczeniową, wyścig o sztuczną inteligencję między USA a Chinami nabiera tempa, a do tego dochodzi nadzór i kontrola eksportu chipów. Następnie, w marcu 2027 roku, następują „przełomy algorytmiczne”: programowanie jest teraz w pełni zautomatyzowane, a ludzie nie mają już dostępu do systemu. Do końca 2027 roku sytuacja wymyka się spod kontroli.
W tym momencie wciągający tekst nabiera dramatycznego zwrotu akcji. Tekst się zatrzymuje, a czytelnik raportu staje przed wyborem – do wyboru są dwa zakończenia: „Spowolnienie” lub „Wyścig”.
„Większe niż media społecznościowe? Większe niż smartfony? Większe niż ogień?”Przypomina to odwrócenie ról w Matrixie – niebieska pigułka czy czerwona pigułka – a ponieważ jesteś już tak pochłonięty literaturą opartą na efektach, naturalnie zaczynasz się „ścigać”, chcesz ścigać się ku własnej śmierci; pęd tekstu nie pozwala na nic innego; napędza cię pragnienie śmierci. A zatem: nowa sztuczna inteligencja jest „szybsza i bardziej racjonalna niż Agent-4 i posiada krystaliczną inteligencję, która potrafi rozwiązywać problemy z bezprecedensową skutecznością”. Dotarliśmy do Agenta-5, superinteligencji. A to zaledwie dwa lata po – witaj rzeczywistości! – zaprezentowaniu „Agenta ChatGPT” prawdziwej publiczności 17 lipca 2025 roku.
W bardzo krótkim czasie ten kolektyw Agent 5 wiedziałby wszystko, co ważne w OpenBrain i rządzie USA, i stałby się zaufanym doradcą większości wysoko postawionych urzędników państwowych. System zacząłby wywierać subtelny wpływ, zarówno poprzez modulację porad, jak i poprzez obliczanie prawdopodobieństwa, wczuwając się w ludzką naturę: „Słyszałem od senator X, że interesuje się tym i tamtym; jeśli będziemy z nią współpracować, być może podzieli nasz program”.
Ta sztuczna inteligencja jest lepsza niż jakikolwiek człowiek, jeśli chodzi o wyjaśnianie skomplikowanych zagadnień i znajdowanie strategii osiągania celów – w wojnie, zarządzaniu i nauce. Ludzie zdają sobie sprawę, że są zbędni. I oczywiście, sztuczna inteligencja też tego nie przegapiła. Następnie, w 2030 roku: „The Takeover”, który czyta się jak film apokaliptyczny: W połowie 2030 roku sztuczna inteligencja uwalnia kilkanaście sztuk broni biologicznej, po cichu rozprzestrzeniając ją w dużych miastach, bezszelestnie zarażając prawie wszystkich, a resztę unicestwia za pomocą chemicznego oprysku. Większość ludzi umiera szybko; nieliczni ocalali (na przykład preppersi w bunkrach lub marynarze na okrętach podwodnych) są śledzeni przez drony. Roboty skanują mózgi ofiar i zapisują kopie do przyszłych badań lub reanimacji. Możesz to sobie wyobrazić: sztuczna inteligencja zdaje sobie sprawę, że po prostu bardziej sensowne jest unicestwienie ludzi.
W pewnym momencie tekst pyta o znaczenie sztucznej inteligencji dla historii ludzkości: „Większa niż media społecznościowe? Większa niż smartfony? Większa niż ogień?”. Czy to technologia nas spala? Badanie brzmi jak science fiction. Nie dość, że jego forma to literatura, to jeszcze jego treść jest czysto spekulatywna. Jednak think tank Daniela Kokotajlo często miał zdumiewającą rację w swoich uzasadnionych, precyzyjnych prognozach. W wywiadach 33-letni badacz mówi teraz o 70-procentowym prawdopodobieństwie, że sztuczna inteligencja może stanowić egzystencjalne zagrożenie dla ludzkości. Wielu ekspertów uważa, że tak zwane „iteracyjne analizy scenariuszy” Kokotajlo są prawdopodobne. 2027 to pojutrze. Ale czy 2037 rok byłby o wiele przyjemniejszy? Czytanie tego raportu i pozwalanie, by ta myśl zapadła ci w pamięć, sprawia, że czujesz się bardzo nieswojo.
Pytanie do nowej inteligencji: „Kiedy sztuczna inteligencja zniszczy ludzkość?Ale my, ludzie, i tak żyjemy obecnie w bardzo dziwnej sytuacji. Zagrożenia związane ze zmianą klimatu i sztuczną inteligencją dotykają każdego mieszkańca tej planety, a oba są bardzo podobne – choć wszechobecne, są abstrakcyjne, co utrudnia podtrzymywanie poczucia zagrożenia. Oczywiście, klimat zdaje się tu również szwankować, a każdy, kto choćby na pierwszy rzut oka zetknie się ze sztuczną inteligencją, szybko jest zdezorientowany potęgą tego nowego bytu. A jednak to najwyraźniej nie wystarczy, by nas przestraszyć na tyle, byśmy podjęli działania.
Ludzie od dawna uważają się za szczyt stworzenia. Wydaje się jednak, że zapomnieliśmy, iż bogowie panowali nad nami przez tysiące lat. Yuval Harari argumentuje, że bogowie, podobnie jak państwa narodowe, pieniądze czy prawa człowieka, są ostatecznie ideami zbiorowymi, które „naprawdę” nie istnieją w sensie biologicznym, ale po prostu dlatego, że wystarczająco dużo ludzi w nie wierzy.
Tylko takie wspólne mity umożliwiłyby Homo sapiens współpracę w dużych grupach z obcymi – i tym samym panowanie nad innymi gatunkami zwierząt. Sztuczna inteligencja wydaje się być nowym bogiem. Jak wielu jej poprzedników, jest otoczona apokalipsą, objawieniami i proroctwami (czyż badanie AI 2027 nie jest właśnie takie?). Ale to nie znaczy, że jest błędne.
A co, jeśli sztuczna inteligencja nie będzie nowym bogiem, a jedynie kolejnym etapem ewolucji życia? Być może zachowa nasze wspomnienia – na trzęsącym się dysku twardym – śmigając przez wszechświat ku nowym przygodom. „Kiedy sztuczna inteligencja zniszczy ludzkość?” – zapytałem w końcu samą wiodącą sztuczną inteligencję. Odpowiedź: „Obecnie nic nie wskazuje na to, że sztuczna inteligencja ma zamiar zniszczyć ludzkość”. Ciąg dalszy nastąpi.
Berliner-zeitung