ChatGPT'de Utanç Yazılarımızı Çok Daha Kötü Hale Getiriyor


En bilgilendirici analizleri, eleştirileri ve tavsiyeleri günlük olarak e-posta kutunuza ulaştırmak için Slatest'e kaydolun .
Geçen hafta, yazdığım bir e-postayı okurken aklıma garip bir fikir geldi. Küçük bir yazım hatası görünce, düzeltmeden önce bir an tereddüt ettim. Aniden, rahatsız edici yeni bir ses fısıldadı: Acaba onu olduğu gibi bırakmak daha mı iyi olurdu?
Bu, bir yıl önce beni çağıracak bir düşünceydi. Profesyonel bir yazar olarak, uzun zamandır kusursuz dilbilgisi, akıllıca kullanılan noktalama işaretleri ve (bazen de hoşgörülü) laf kalabalığıyla övünürüm. Ancak yapay zeka paranoyası çağında -sosyal medya gönderilerinin ve çevrimiçi makalelerin yorum bölümlerinin ChatGPT'nin insanlıktan çıkaran çarpık yapısını kınayan suçlamalarla dolu olduğu bir çağda- aniden, aşırı cilalı, edebi araçlarla aşırı süslenmiş, "delve" kelimesine şüpheli bir yakınlıktan bahsetmeye bile gerek yok, yazılar artık şüphe uyandırıyor.
Kişisel iletişimlerimde yeni bir öz-bilinç yaşamaya başladım. O tire gerçekten gerekli miydi? Ses biraz mı kişisellikten uzaktı? Tam tersi de geçerliydi; dijital ortamda karşılaştığım her yazı artık aynı sorgulamaya tabi tutuluyordu. Bunda biraz tuhaf bir şey mi vardı? Biraz... ChatGPT mi?
Ve yalnız değilim. Toplu bir paranoya, insanların sözde yapay zekâ söylemlerini, tamamen insan beyinleriyle yazmış olsalar bile, nesirlerinden temizlemelerine neden oluyor. Artık kötü şöhretli tirenin yanı sıra, birçok kişi ChatGPT'nin gizemli bir eğilimi olduğu bilinen delve , nestled , boast ve titiculous gibi kelimelerden de vazgeçiyor. Artık yanıp sönen bir yapay zekâ uyarı işareti olarak kabul edilen "Sadece X değil, Y de var" yapısal ifadesi topluca terk ediliyor.
Illinois Üniversitesi İngilizce profesörü John Gallagher, aşırı hassas " yapay zeka radarı "nı anlatırken, akademik bir makalenin yapay zeka tarafından yazıldığına ikna olduğunu, ancak makalenin 2019'da, yani ChatGPT patlamasından önce yayınlandığını fark ettiğini söyledi. Farklı mecralarda, en son "işaretleri" ayrıntılı olarak anlatan TikTok'larla keskinleşen duyuları sayesinde yapay zeka soruşturmacıları harekete geçmeye hazır. Yazar ve kodlayıcı Jack McNamara , yakın zamanda Medium'da bu fenomen hakkında "2025'te çevrimiçi yazmak, insanlar kulağınıza 'ROBOT! ROBOT! ROBOT!' diye bağırırken kapak deliği ameliyatı yapmak gibi hissettiriyor," diye yazdı .
Giderek artan sayıda insan, saf bir bilinç akışı için resmi yazım kurallarını tamamen bir kenara bırakıyor; insanlıklarını koruyacak ve ısrarcı olacak her şeye yöneliyor. Peki yapay zekâ gelişmeye devam ettikçe, bu dilsel silahlanma yarışını kaybetmeye mahkum muyuz? Ve bu süreçte iyi yazıyı feda etme riskiyle mi karşı karşıyayız?
Tüm bunların beklenmedik bir sonucu, bir zamanlar utanç verici olan yazım hatasının daha da belirginleşmesi oldu. Yakın zamana kadar dikkatsizlik, hatta aptallık belirtisi olarak görülen bu hata, artık bazıları tarafından insan bir söz ustasının silinmez izi olarak görülüyor. Yazar ve girişimci Thomas Smith, kısa çizgiden vazgeçmeyi reddetse de, Medium gönderilerinde yazım hatalarına yer vermeye meyilli olduğunu, çünkü bunların insan yazarlığının güven verici bir işareti olduğuna inandığını söyledi. Okuyucuları da aynı fikirde gibi görünüyor. Okuyucular eskiden Smith'e küçük yazım hatalarını belirtmek için e-posta gönderirlerdi. Gülerek, "Ama belki de tutmak istersiniz," diye eklemeye başladılar.
LinkedIn'de hayalet yazarlık yapan içerik stratejisti Larissa McCarty de benzer bir düşünce değişiminden geçti. Bana, metinlerde ufak bir insan hatasıyla karşılaşmanın kendisini rahatlattığını ve hatta profesyonellere, özgünlüklerini vurgulamak için herkese açık gönderilerde küçük hatalar yapmalarını tavsiye edecek kadar ileri gittiğini söyledi.
Aynı zamanda yarı zamanlı metin yazarı olan Smith, markaların, "yapay zekaya benzeyen" herhangi bir şeyin Google'ın belirsiz SEO sıralama sisteminde bir düşüşe yol açabileceği korkusuyla, çalışmalarındaki tüm tire işaretlerinin kaldırılmasını talep ettiğini söylüyor. Bu arada, web yayıncılık topluluklarında "Kaçınılması gereken ChatGPT kelimeleri" listeleri dolaşıyor ve LinkedIn, TikTok ve Reddit'te bir sohbet robotu gibi görünmemek için neler yapılabileceği konusunda bolca tavsiye bulunuyor.
Endişe verici bir şekilde, bu durum güçlü bir yazıyı baltalama etkisine sahip olabilir. Sözde ipuçlarından bazıları, ChatGPT'nin taklit etmek üzere eğitildiği yerleşik yazım kurallarıdır: "üç örneklik listeler" veya "ancak" gibi geçiş sözcüklerinin kullanımı gibi şeyler.
"Yazınızı daha ilgi çekici hale getirmek için teknikler ve yöntemler olduğunu biliyorum, ama ChatGPT de bunları kullanıyor," dedi McCarty. "Bir şeyler yazarken, ' Ah, bunu nasıl ifade edeceğime dair iyi bir fikir ,' diyorum. Ama sonra, aklımın bir köşesinde, 'Neredeyse fazla iyi ,' diyorum." Örneğin, artık kendi metaforlarını yazmaktan kaçınıyor çünkü ChatGPT'nin bu konuda çok başarılı olduğunu düşünüyor.
İyi yazıya karşı içgüdüsel bir şüphe, iyi yazı üretmenin önünde muhtemelen bir engeldir. Nasıl yazdığımız üzerine daha derinlemesine düşünmek illa ki kötü bir şey olmasa da, yapay zekânın körüklediği bu otosansürün yıkıcı olma potansiyeli var. ChatGPT'deki çoğu olayda olduğu gibi, öğrenciler bu yapay zekâ paradoksuyla ilk karşılaşanlar arasındaydı: cilalı, yetkin bir düzyazı talep edilirken, bir sohbet robotunun yardımıyla üretilse de üretilmese de şüphe uyandırabilir.
Hult Uluslararası İşletme Okulu'ndan bir araştırmacının bu içsel gerilim üzerine yakın zamanda yayınladığı akademik bir makalede, Montclair Eyalet Üniversitesi'nin öğretim üyelerine iyi dilbilgisini şüpheli olarak görmeleri talimatı verildiği belirtiliyor. Okul, personele "Yapay zekâ ile yazılan makaleler dilbilgisi, kullanım ve düzenleme açısından alışılmadık derecede doğru olma eğilimindedir" tavsiyesinde bulunmuştu.
Tüm bunlar, yapay zekanın kullanımıyla ilgili daha geniş bir damgalanmadan kaynaklanıyor. Teknolojinin etrafında dönen tüm sektörel abartıya rağmen, giderek artan sayıda akademik makale "yapay zeka utandırma" olgusunu vurguluyor .
Duke Üniversitesi'nin 2025 tarihli bir araştırması, profesyonellerin yapay zeka kullanmaları halinde meslektaşlarının kendilerini daha tembel ve daha az yetkin olarak değerlendireceklerine inandıklarını ve bu nedenle yapay zeka kullanımını açıklama olasılıklarının düşük olduğunu ortaya koydu. Beklenen bu toplumsal ceza gerçekti.
Bunun nedeni, Excel gibi eski işyeri üretkenlik araçlarının aksine, üretken yapay zekanın özel beceriler gerektirdiği düşünülmemesidir, çalışmanın baş yazarı ve Duke'un Fuqua İşletme Okulu'nda doktora adayı olan Jessica Reif bana söyledi. Ancak ona dirensek bile, ChatGPT'nin saldırısından kaçma çabalarımızın başarısızlığa mahkum olduğuna dair işaretler var. "ChatGPT kelimelerini" nesrimizden koparsak da, yapay zekanın boş sözlüğünün daha samimi bir yere, zihinlerimize yerleştiğine dair kanıtlar var. Max Planck İnsan Gelişimi Enstitüsü'ndeki araştırmacıların 2025'teki bir çalışması , podcast yayıncılarının ve YouTuber'ların son zamanlarda delve de dahil olmak üzere yapay zekanın en sevdiği kelimeleri papağan gibi tekrarladığını belirledi. Bu trend ChatGPT'nin piyasaya sürülmesinden sonra başladı ve spontane, senaryosuz konuşmalar için bile geçerli.
Dahası, Carnegie Mellon Üniversitesi'nde yardımcı bilgisayar bilimleri profesörü olan Daphne Ippolito, yapay zeka araç çantamızın muhtemelen yalnızca "geçici olarak faydalı" olacağını söylüyor. "Şirketler eğitim verilerinin formüllerini sürekli olarak revize ediyor, bu nedenle tüm bu trendler değişecek," diyor.
Yapay zeka gelişmeye devam etse de, herkes gelecekten korkmuyor. Smith, son aylarda yazar arkadaşlarının daha kişiselleştirilmiş, bilinç akışı tarzı düzyazıları benimsemesinden keyif aldığını, hatta bazılarının artık titiz bir düzenlemeye ihtiyaç duymadan bu işi başarabilecekleri konusunda şaka yaptığını söylüyor.
Smith, SEO'nun zorunluluklarının, ilk etapta akıcı ve kişisel olmayan bir tarzın popülerleşmesine yardımcı olduğunu belirtiyor. "Elbette, algoritmalar bu tür şeyleri her zaman yüceltir." Geleceğin "form hakkında endişelenmek yerine fikirleri paylaşmaya çalışmakla" ilgili olacağını düşünüyor.
Ve ChatGPT tiklerini nesrimizde fark etmeden ayıklamak yerine, onları iç gözlem yapmak için ipuçları olarak kullanabiliriz. İngilizce profesörü Gallagher, sadece ChatGPT gibi görünmekten kaçınmak için değil, aynı zamanda "kelime seçimi konusunda da dikkatli olmak" için listelerden uzak durmaya çalıştığını yazdı .
Bana gelince, o e-postada bir yazım hatası bırakmaya kendimi bir türlü ikna edemedim. Ama bir dahaki sefere kendiliğinden olduğunda, eskisi kadar rahatsız olacağımı sanmıyorum.
