Czy do 2030 roku będziemy mieli myślące roboty? A może to tylko szum medialny wielkich firm technologicznych?

Obecnie wiele osób korzysta z chatbotów opartych na sztucznej inteligencji (AI) do różnych celów, od podawania pomysłów na kolację po walkę z samotnością. Czy jednak ludzkość stoi u progu stworzenia maszyn, które będą potrafiły myśleć samodzielnie — i potencjalnie przechytrzyć swoich twórców?
Niektóre duże firmy technologiczne twierdzą, że przełom w dziedzinie ogólnej sztucznej inteligencji (AGI) jest kwestią zaledwie kilku lat. Sceptycy jednak twierdzą, że nie należy wierzyć w te zapewnienia.
„Zawsze, gdy widzisz kogoś mówiącego o AGI, wyobraź sobie Wróżkę Zębuszkę albo Świętego Mikołaja” – powiedział Ed Zitron, gospodarz podcastu o technologii Better Offline i twórca newslettera Where's Your Ed At?
„To wszystko fikcyjne koncepcje, w tym AGI. Różnica polega na tym, że idioci biznesu inwestują w nie miliardy dolarów, bo nie mają w co innego inwestować” – powiedział w wywiadzie dla The Current .
Eksperci nie są zgodni co do szczegółów definicji sztucznej inteligencji (AGI), ale generalnie uważa się, że jest to sztuczna inteligencja, która jest równie inteligentna lub inteligentniejsza od człowieka, a także potrafi się uczyć i działać autonomicznie. Tę inteligencję można by następnie zainstalować w ciele robota, który mógłby wykonywać wiele zadań.
Demis Hassabis, dyrektor generalny DeepMind, laboratorium sztucznej inteligencji Google, niedawno powiedział, że jego firma osiągnie AGI do 2030 roku.
„Mój harmonogram był dość spójny od początku istnienia DeepMind w 2010 r., więc sądziliśmy, że to misja na około 20 lat i co zadziwiające, jesteśmy na dobrej drodze” – powiedział w maju dziennikowi „New York Times” .
Zitron nie jest przekonany. Powiedział, że Hassabis jest „bezpośrednio motywowany” do mówienia o postępach swojej firmy i zwrócił uwagę na niepewność co do rentowności chatbotów opartych na sztucznej inteligencji, takich jak Gemini firmy Google czy ChatGPT firmy OpenAI.
„Żadna z tych firm nie zarabia w zasadzie żadnych pieniędzy na generatywnej sztucznej inteligencji… więc potrzebują nowego magicznego triku, który sprawi, że ludzie przestaną się nimi przejmować” – powiedział.
AGI „zawsze 10 lat stąd”Ekspertka w dziedzinie sztucznej inteligencji Melanie Mitchell twierdzi, że ludzie snuli przewidywania dotyczące tego rodzaju inteligentnej sztucznej inteligencji już od lat 60. XX wieku — i przewidywania te zawsze okazywały się błędne.
„Stworzenie AGI lub czegoś podobnego jest kwestią 10 lat, ale zawsze tak było i być może zawsze tak będzie” – powiedział Mitchell, profesor Instytutu Santa Fe w Nowym Meksyku, specjalizujący się w sztucznej inteligencji, uczeniu maszynowym i naukach kognitywnych.
Dodała, że nie ma powszechnej zgody co do tego, co powinna potrafić działająca sztuczna inteligencja ogólna, ale nie należy jej mylić z dużymi modelami językowymi, takimi jak ChatGPT czy Claude, które są rodzajem generatywnej sztucznej inteligencji.
Duże modele językowe (LLM), które napędzają programy generatywnej sztucznej inteligencji, zostały wytrenowane na „ogromnej ilości języka generowanego przez człowieka, pochodzącego ze stron internetowych, książek lub innych mediów” i w rezultacie „są w stanie generować język brzmiący bardzo ludzko” – powiedziała w wywiadzie dla The Current .
Zitron stwierdził, że to rozróżnienie jest istotne, ponieważ podkreśla, że „generatywna sztuczna inteligencja nie jest inteligencją, lecz odwołuje się do zbioru informacji” przekazanego jej przez ludzi.
Definiuje AGI jako „świadomy komputer… coś, co może myśleć i działać samodzielnie, w pełni autonomicznie” i ma zdolność uczenia się.
„Nie wiemy, jak działa ludzka świadomość” – powiedział. „Jak do cholery mamy to zrobić z komputerami? Odpowiedź brzmi: nie wiemy”.

Mitchell obawia się, że bez powszechnie akceptowanej definicji istnieje ryzyko, że duże firmy technologiczne „zdefiniują AGI na nowo”.
„Powiedzą: »Och, cóż, to, co tu mamy, to jest AGI. I dlatego osiągnęliśmy AGI«, choć tak naprawdę nie ma to żadnego głębszego znaczenia” – powiedziała.
AGI może być „wyścigiem samobójców”Istnieją osoby spoza branży technologicznej, które wierzą, że sztuczna inteligencja ogólna może być w naszym zasięgu.
„Jeśli nasz mózg jest biologicznym komputerem, to znaczy, że możliwe jest stworzenie rzeczy, które będą myśleć na poziomie ludzkim” – powiedział Max Tegmark, profesor MIT i prezes Future of Life Institute, organizacji non-profit, której celem jest ograniczanie ryzyka związanego z nowymi technologiami.
„Nie ma żadnego prawa fizyki, które mówiłoby, że nie da się tego zrobić lepiej” – powiedział.
Tegmark uważa, że twierdzenie, iż AGI jest niemożliwa do osiągnięcia, jest przejawem pychy i nadmiernej dumy, podobnie jak wiele osób kiedyś uważało, że lot człowieka jest niemożliwy.
Niektórzy wczesni wynalazcy bezskutecznie próbowali stworzyć maszyny naśladujące szybkie uderzenia skrzydeł mniejszych ptaków. Sukces przyszedł jednak wraz z lepszym zrozumieniem ptasich skrzydeł i koncepcją maszyny, która zamiast tego szybuje.
„Okazało się, że jest to o wiele łatwiejszy sposób budowania maszyn latających” – powiedział Tegmark.
„Widzieliśmy to samo teraz, że dzisiejsze najnowocześniejsze systemy sztucznej inteligencji są o wiele prostsze niż mózgi. Znaleźliśmy inny sposób na stworzenie maszyn, które potrafią myśleć”.
Tegmark twierdzi, że nie byłby specjalnie zaskoczony, gdyby „stało się to w ciągu dwóch do pięciu lat”, ale nie oznacza to, że koniecznie powinniśmy tworzyć roboty, które będą w stanie przechytrzyć ludzi.
Opisał te inteligentne maszyny jako nowy gatunek, który z łatwością może zagrozić pozycji ludzkości w łańcuchu pokarmowym, „ponieważ naturalne jest, że inteligentniejszy gatunek przejmuje kontrolę”.

„Wyścig w tworzeniu superinteligencji to wyścig samobójczy, ale nie musimy w nim uczestniczyć” – powiedział.
„Wciąż możemy tworzyć niesamowite sztuczne inteligencje, które będą leczyć raka i dadzą nam dostęp do wielu wspaniałych narzędzi — bez konieczności tworzenia superinteligencji”.
cbc.ca