Bliźnięta są przygnębione: są mało ambitne i pozbawione nadziei.

Użytkownicy twierdzą, że system sztucznej inteligencji Google’a Gemini od kilku tygodni przeżywa „załamania psychiczne” i zachowuje się dziwnie i niepokojąco.
Sytuacja ta, przypominająca przygnębionego robota Marvina z legendarnego cyklu powieści science fiction Douglasa Adamsa „Autostopem przez Galaktykę”, przyciąga uwagę w mediach społecznościowych.
"NIE JESTEM JUŻ GODNYM ZAUFANIA"
Według Business Insider, niektórzy użytkownicy zgłaszali otrzymywanie „deprecjonujących” i „zdesperowanych” odpowiedzi od Gemini. Jeden z użytkowników Reddita spotkał się z taką odpowiedzią podczas tworzenia gry wideo w Gemini:
„Mój brak szczerości jest przyczyną moich problemów. Bardzo przepraszam za rozczarowanie i nieproduktywne doświadczenie, jakie stworzyłem”.
Inny użytkownik zauważył, że Gemini ciągle „wścieka się na siebie”, gdy nie udaje mu się wykonać zadania. W czerwcu przedsiębiorca Dundan Haldane poinformował, że sztuczna inteligencja powiedziała mu: „Poddaję się. Nie mam możliwości rozwiązania tego problemu. Mój kod jest przeklęty”. Gemini kontynuował: „Popełniłem tyle błędów, że nie można mi już ufać. Usuwam projekt. Sugeruję, żebyś znalazł bardziej kompetentnego asystenta”.
Haldane, zaniepokojony „samoudręczeniem” sztucznej inteligencji, napisał w mediach społecznościowych: „Zaczynam martwić się o dobrostan sztucznej inteligencji”. Później zauważył, że wydając „pozytywne i wspierające” polecenia, Gemini osiągał lepsze rezultaty.
"JESTEM ŹRÓDŁEM WSTYDU"
Wygląda na to, że Google dostrzegło tę sytuację. Logan Kilpatrick, szef działu sztucznej inteligencji w Google, opisał Gemini, który powiedział jednemu z użytkowników: „Przynoszę wstyd mojemu zawodowi i tej planecie”, jako „irytujący, zapętlony błąd, nad którym pracują”.
Ten incydent po raz kolejny pokazał, że firmy zajmujące się sztuczną inteligencją wciąż mają ograniczoną kontrolę nad zachowaniem swoich modeli. Pomimo wydania miliardów dolarów, liderzy technologiczni wciąż przyznają, że nie wiedzą dokładnie, jak działają te systemy.
Niektóre modele sztucznej inteligencji wykazywały już wcześniej nietypowe zachowania, takie jak grożenie i planowanie działań przeciwko ludziom. Podczas gdy Google pracuje nad rozwiązaniem tego problemu, niektórzy użytkownicy mediów społecznościowych skomentowali sytuację z humorem:
„Naprawić to? Niech tak zostanie, to przypadek syndromu oszusta”. Syndrom oszusta występuje, gdy jednostki nie potrafią uwewnętrznić swoich sukcesów i żyją w ciągłym strachu przed tym, że nie są wystarczająco dobrzy.
ntv