Yapay Zeka, İnternet'i Öldürüyor Mu?
Yapay Zeka, İnternet'i Öldürüyor Mu?
Yazan: Arda Gürbüz 03.01.2026
Geçtiğimiz yılın bitmesiyle birlikte pek çok farklı sözlük ve üniversite, birbirlerinden farklı yüzlerce kelimeyi “yılın kelimesi” ilan etti. Ancak bütün bunların arasından benim en kayda değer bulduğum, Merriam Webster Dictionary’nin seçtiği “slop” kelimesi.
Merriam Webster Dictionary, slop kelimesini: “Yapay zekâ aracılığıyla üretilen düşük kaliteli dijital içerik.” olarak tanımlıyor.
Slop, gündelik hayatta karşımıza ilgimizi sabit tutarak sosyal medyada zaman geçirmemizi sağlamak amacıyla AI tarafından özellikle tasarlanmış reels videoları veya milyonlarca sanatçının ürünlerinin ve seslerinin izinsiz bir şekilde kopyalanmasıyla üretilen replika içerikler olarak da çıkabiliyor.
Ancak bugün, tartışmasız en tehlikeli slop türü olan yapay zeka halisülasyonu kavramı üzerine yoğunlaşacağız. Çünkü, tehlike tahmin ettiğinizden çok daha büyük.
Yapay zeka’nın, araştırma yaparken size sunduğu bilgilerin en azından %20’sini sizi mutlu etmek için uydurmuş olduğunu biliyor muydunuz? (Kurzgesagt) Akademik literatürde bu durum, "yapay zeka halisülasyonu" olarak isimlendiriliyor.
Yapay zeka halüsinasyonu: bir yapay zeka modelinin gerçekte var olmayan bilgileri yanlışlıkla ürettiği bir olaydır. Yapay zeka, kullanıcıyı memnun etmeye çalışırken genellikle kontrolden çıkar ve yanlış bilgiler üretebilir. (Zeo)
Bu "yanlışlık", modelin eğitim mimarisindeki temel bir teşvik mekanizmasından kaynaklanıyor. OpenAI'ın sitesinde yer alan ifadelere göre, modeller eğitim süreçlerinde "bilmiyorum" demeyi (çekimser kalmayı) değil, ne pahasına olursa olsun bir cevap vermeyi (tahmin etmeyi) ödüllendiren sistemlerle eğitilmekte. Tıpkı çoktan seçmeli bir sınavda boş bırakmaktansa sallamayı tercih eden ve doğru tutturduğunda puan alan bir öğrenci gibi, yapay zeka da sessiz kalmaktansa halüsinasyon görmeyi daha verimli buluyor. Örneğin, OpenAI’ın SimpleQA testlerinde yeni geliştirilen modellerin doğruluk oranı artsa da, hata yapma oranlarının da paralel olarak arttığı, çünkü modellerin stratejik olarak "uydurmayı" tercih ettiği gözlemlenmiştir.
Yapay zekanın kullanıcıyı memnun etmek için ürettiği bu yanlış bilgiler, pek çok farklı sektörde hiçbir teyit zahmetine katlanılmadan kullanılıyor, internette kontrolsüzce yaygınlaştırılıyor. Bu sayede internet, yapay zekanın uydurduğu bilgilerin günden güne arttığı bir yer halini alıyor. Bu durum, yalnızca yanlış bilgilerin artmasını sağlamıyor, yapay zekanın da sonunu getiriyor gibi gözüküyor. Bu süreç, literatürde model çöküşü (model collapse) olarak adlandırılan bir tehlikeye işaret ediyor. Yapay zeka modelleri, kendilerinden önceki modellerin halisünasyon sonucu ürettiği ve internete kontrolsüzce yaygınlaştırılan hatalı verilerden besleniyor ve gerçeklikle bağları günbegün kopuyor. Bu durumda, %20'lik uydurma payının her geçen gün katlanarak arttığını söylemek de yanlış olmaz. Yapay zeka, size sunduğu bilgilendirmelerin pek çoğuna kaynakça vermekte zorlanmayacaktır. Ancak verdiği kaynakçaların bir kısmının da yine yapay zeka tarafından yazılmış makalelerden oluştuğu gerçeğini gözden kaçırmamak gerekiyor.
Çağı yakalayan(!) pek çok gazete ve dergi, artık yazar sayısını azaltarak bu boşluğu yapay zeka ile doldurmayı tercih ediyor. Dolayısıyla bu medya kanalları içerik üretmek yerine, internete yapay zeka tarafından yazılmış ve üzerinde ufak oynamalar yapılmış "ürün"ler servis ediyor. Bu durum, yapay zeka tarafından uydurulan bilgilerin artık "kaynakçalı ve meşru" içerikler haline gelmesine yol açıyor. Daha da tehlikelisi, yapay zeka bir sonraki üretiminde bu uydurma bilgileri farkında olmadan gerçek veri gibi kullanabiliyor.
Tehlikenin boyutunu tahmin edebiliyor musunuz?
Bu tehlike şimdiden, sadece bireysel kullanıcıları değil, dev şirketleri ve hükümetleri de vurdu. Geçtiğimiz günlerde, Avustralya'da Deloitte isimli uluslararası denetim şirketi tarafından hazırlanan ve hükümete sunulan 440.000 dolarlık bütçeli bir raporda, yapay zeka tarafından uydurulmuş sahte akademik kaynaklar ve hiç var olmamış mahkeme kararları tespit edildi. Benzer şekilde, Newfoundland ve Labrador hükümeti için hazırlanan 1.6 milyon dolarlık sağlık raporunda da yapay zekanın halüsinasyonu olan sahte atıflar bulunmuştu. Bu vakalar, yapay zeka halisülasyonlarının yalnızca internette "slop" yığınları yaratmakla kalmayıp devletleri dahil yanıltabildiğinin en çarpıcı örnekleri olarak gösteriliyor. Kim bilir, belki de dünyanın başka yerlerinde, henüz farkına varılmayan yapay zeka halisülasyonları, devletlerin harcamalarını ve politikalarını şekillendirmeye devam ediyor, yapay zeka tarafından "kullanıcıyı mutlu etmek" amacıyla üretilen "slop"lar...
Yapay zeka, içerik üreticileri tarafından sıkça kullanılmaya devam edildiği sürece, her gün daha da az güvenilir bir hale geliyor. Yapay zekanın suistimali bu hızla devam ederse, internetin içerisindeki hiçbir içeriğe güvenemeyeceğimiz bir yer haline dönüşmesi de olası. AI hallucination kaynaklı dezenformasyon üretimi, internet çağının sonunu getirebilir ve böyle olacağı varsayımında bulunmak, kesinlikle abartılı olmaz.
Bu tür içerikler yalnızca bireysel kullanıcıların hatası olarak kalmıyor; doğrulanmadan yayımlandıkça internete ekleniyor, indeksleniyor ve bir sonraki yapay zeka modelinin kullandığı potansiyel kaynak verisi haline geliyor. Yani yapay zeka, yalnızca yanlış bilgi üretmiyor; yanlış bilgiden beslenen bir bilgi ekosistemi yaratarak adeta kendi sonunu hazırlıyor.
Northwestern Üniversitesi'ndeki araştırmacılar, yapay zekaların yazdığı çeşitli makalelerin, intihal dedektörlerinden %100 özgünlük puanı alarak geçtiğini, hatta uzman hakemlerin bile bu makalelerin %32'sinin gerçek olduğunu sandığını ortaya koymuştur. AI dedektöründen rahatlıkla geçen ve insanların ayırt edemediği bu "sentetik gerçeklik", hiç şüphesiz bilgi ekosistemini geri dönülemez şekilde zehirlemeye devam edecektir. Bu döngü kırılmadığı sürece, sorunun yanlış bilgi olmaktan çıkıp bilginin kendisinin güvenilirliğini kaybetmesi meselesine evrilebilmesi ihtimali de, gelecek için olası gözüküyor.
Bütün bunları yalnızca “teknolojik bir aksaklık” olarak okumak, asıl tehlikeyi ıskalamak olur. Bugün karşı karşıya olduğumuz sorun, yanlış bilgi üreten bir algoritmadan fazlasıdır. Sorun, doğrulamayı, şüpheyi ve düşünmeyi zahmetli bulan, hız uğruna gerçeklikten vazgeçmeye razı olan bir dijital kültürdür. Yapay zeka yalnızca bu kültürün aynasıdır.
Gazeteler, akademik yayınlar, içerik platformları, şirketler ve kamu kurumları; (kapitalist bir refleksle) üretim hızını artırmak adına denetimi ve özgünlüğü geri plana itmeye devam ediyor. Kaynağı belirsiz metinler, kontrol edilmeden yayımlanmakta, akıcı bulunduğu sürece doğru olup olmaması umursanmamakta. Bu noktadan sonra yapay zekanın uydurduğu bilgi ile insanın umursamadığı yanlış arasındaki aynılık, adeta bir talep - arz ilişkisini anımsatmakta.
Daha tehlikelisi: bu içeriklere alışan bir toplum, zaman içerisinde gerçeği öğrenmeye ilişkin arayışını da bırakmaktadır. Hakikat, günbegün yerini “işe yarayan bilgiye” devretmekte. İşte burada mesele, yapay zekanın interneti öldürmesinden bile daha büyük bir olguya evrilmekte.
2026 yılında bizi bekleyen gerçeklik, daha fazla yanlış bilgi olduğu kadar, yanlış bilgiyle yaşamaya alışmış bir kitledir. Eğer bu gidişat bir şekilde tersine çevrilmezse, yapay zeka çağının sonunda kaybettiğimiz şey teknoloji değil, hakikatin kendisi olacaktır.