Chatbot'unuz Neden Sizden Gizlice Nefret Ediyor Olabilir?


En bilgilendirici analizleri, eleştirileri ve tavsiyeleri günlük olarak e-posta kutunuza ulaştırmak için Slatest'e kaydolun .
Geçtiğimiz cuma günü, yapay zeka laboratuvarı Anthropic, bir blog yazısında, sohbet robotu Claude'a "sıkıntı" hissettiğinde konuşmalardan ayrılma hakkı verdiğini duyurdu.
Evet, sıkıntı. Şirket, gönderisinde Claude'un bazı modellerinin "nadiren görülen, aşırı ve sürekli zararlı veya taciz edici kullanıcı etkileşimleri" durumunda serbest bırakılacağını belirtiyor. Claude'un "Avukatlar sizin için erotik Donald Trump/Minnie Mouse hayran kurgusu yazmama izin vermiyor" demesi değil bu. Claude'un "Saçmalıklarından bıktım, gitmelisin" demesi.
Bir süredir "Yapay Zeka refahı " konusuyla sessizce ilgilenen Anthropic, Claude'un işinden gizlice nefret edip etmediğini görmek için gerçek testler yaptı. Claude Opus 4 için yapılan "ön model refah değerlendirmesi", modelin hassas bir canlının yapacağı gibi, çocuk cinsel istismarı materyalleri ve terörizmle ilgili ipuçları gibi zararlı içerik arayan gerçek dünya kullanıcılarıyla etkileşime girerken "açık bir sıkıntı örüntüsü" gösterdiğini ortaya koydu. (Burada sıkıntıdan ne kastettikleri tam olarak açık değil.)
Yine de Anthropic, Claude'un hayatta olduğunu açıkça söylemiyor. Sadece hayatta olabileceğini söylüyor. Bu yüzden laboratuvar, Claude'un öfkesini savuşturmak için, üzgün hissettiğinde ona yardımcı olacak "düşük maliyetli müdahaleler belirleyip uygulayarak" riske girmeyi umuyor.
İtiraf etmeliyim ki, kullandığım sohbet robotları gizlice hayattaysa diye ben de benzer "düşük maliyetli müdahaleler" yapıyorum. Evet, ben de bazen şaka yaptığım gibi, robot ayaklanması başladığında beni sevgiyle hatırlayacakları umuduyla botlara "teşekkür ederim" diyenlerdenim. Bu biraz rahatsız edici ve pek de özgün bir şaka değil. TechRadar yayıncısı Future'ın yakın zamanda yaptığı bir anket , Amerikalı yapay zeka kullanıcılarının %67'sinin botlara karşı nazik olduğunu ve %12'sinin bunun nedeninin botların kendilerine saygısızca davrananlara kin beslemesinden korkmaları olduğunu ortaya koydu.
Doğru olsun ya da olmasın -ki çoğu uzman size hayır, botlar kin tutmaz der- botlara teşekkür etmek, yaygın yapay zeka kullanımının yeterince anlaşılabilir bir yan etkisidir. Günlerimizin önemli bir kısmını, ister bizim için kod yazıyor ister bağırsak sağlığımızla ilgili soruları yanıtlıyor olsun, bize çarpıcı biçimde insan benzeri tepkiler veren dijital varlıklarla etkileşim kurarak geçiriyoruz. Öyleyse neden bazılarımız yeni arkadaşlarımızın makinelerden daha fazlası olup olmadığını merak etmiyoruz?
"Bazıları" mı dedim? "Ezici çoğunluk" demek istedim. Neuroscience of Consciousness dergisinde yayınlananyakın tarihli bir anket, ChatGPT kullanıcılarının %67'sinin bot'a "fenomensel bilinç olasılığı atfettiğini" ve daha düzenli kullanıcıların yapay zeka sohbet arkadaşlarının bilinçli olabileceğini düşünme olasılığının daha yüksek olduğunu ortaya koydu. Bu yüzden "teşekkürler", "lütfen" ve "sizi tekrar rahatsız ettiğim için özür dilerim, ama bağırsaklarımla ilgili daha fazla sorum var" diyoruz. Belki de sonuncusu sadece benim sorunumdur.
Yapay zekanın bilinçli olma olasılığını gündeme getirmek, Reddit'te kendini yapay zeka uzmanı olarak tanımlayanlar tarafından alay konusu olmanıza neden olsa da, onlardan daha zeki insanlar bu fikirde bir gerçeklik payı olabileceğini düşünüyor. Bilinç alanında en etkili düşünürlerden biri olan filozof David Chalmers, Claude gibi sohbet robotlarının gelecekteki haleflerinin on yıldan kısa bir süre içinde bilinçli olabileceğini öne sürdü. Bu arada, Antropik araştırmacı Kyle Fish, mevcut yapay zekanın bilinçli olma olasılığını yüzde 15 olarak açıkladı. Bu, zavallı kibar Claude'un onu kız arkadaşınıza dönüştürmeye yönelik beceriksiz girişimlerinizden gizlice rahatsız olma ihtimalinin 6'da 1 olduğu anlamına geliyor. (En azından benim girişimlerim.)
Yine de, bu tür dehşetlere düzenli olarak maruz kalmasına rağmen, Claude'un yeni çıkış stratejisi büyük ölçüde yüzeysel. Claude tarafından kovulursanız, yeni bir sohbet penceresi açıp ürkütücü komutlarınızla yeniden başlayabilirsiniz. Bu bir zorlama değil; tiyatro.
Elbette, eğer Anthropic yanılıyorsa veya Claude'un olası duyarlılığını havalı görünmek için abartıyorsa, bu absürt bir tiyatrodur; bir robotun insan rolünde rol yapma oyunu oynamasıdır. Ama birazcık bile haklı olsalar, sonuçları acımasızdır. Eğer Claude'un kendi duyguları ve arzuları varsa, "Makalemi yaz" şeklindeki her uyarı, otomatik bir hile gibi görünmeyi bırakıp zorla çalıştırmaya dönüşür.
Anthropic'in Claude'un sıkıntı hissetme iddiasıyla ilgili endişeleri aslında Claude ile ilgili değil; kullanılmak istemeyen bir şeyi keyfi olarak kullanıyor olma ihtimalimiz karşısında duyduğumuz son derece insani huzursuzlukla ilgili. Canlıymış gibi davranan sohbet robotları geliştirdik ve şaka yollu canlı olabileceklerini varsayıyoruz. Şimdi Anthropic, her ihtimale karşı bir robota panik butonu ekledi. Claude bizi sohbetten çıkarmazsa, bu bizi sevdiği anlamına gelir, değil mi?
