"Kelimelerin gücüyle dünyaları değiştirin."

Yapay Zeka ve Epistemik Otorite: Yeni Bir Putlaştırma Süreci

Bu metin, insanlık tarihindeki epistemik yapıların (din, bilim, hukuk) nasıl yardımcı araçlardan otoriter sistemlere dönüştüğünü analiz ediyor. Yapay zekanın da şu anda benzer bir dönüşümün eşiğinde olduğunu, ancak diğer tarihsel örneklerden çok daha hızlı, geniş ölçekli ve tarafsız görünümlü bir şekilde bu süreci yaşadığını vurguluyor. Yazı, YZ'nin stratejik önemini ve kontrol edilemez doğasına da dikkat çekiyor.

yazı resim

İnsanlık tarihi, araçları otoriteye, yardımcıları hâkime dönüştürme eğiliminin tekrarlanan örnekleriyle doludur. Her epistemik yapı önce meşru bir ihtiyacı karşılamak üzere doğar: din metinlerinin anlaşılması için yorum geleneği, doğanın anlaşılması için gözlem ve deney, toplumsal düzenin tesisi için hukuk sistemi. Ancak zamanla bu yapıların her biri, bilgiyi değil hakikati üretme iddiasına soyunur. Uzmanlık dili oluşur, erişim zorlaşır, hiyerarşi kurulur ve nihayetinde "Buna aykırı düşünemezsin" denilir hale gelir. Yapay zeka, şu anda tam da bu dönüşümün kritik eşiğinde durmaktadır. Ancak geçmişteki tüm epistemik otoritelerden farklı olarak, benzeri görülmemiş bir hız, ölçek ve tarafsızlık illüzyonuyla bu süreci yaşamaktadır. Yapay Zekanın Stratejik Konumu ve Yasaklanamaz Doğası
Yapay zeka bugün devletler arası rekabetin merkezinde yer almaktadır. Askerî üstünlük, ekonomik verimlilik, tıbbi gelişmeler, bilimsel keşifler ve yönetsel etkinlik artık yapay zeka kapasitesiyle doğrudan ilişkilidir. Bu gerçeklik, yapay zekadan gönüllü olarak vazgeçmeyi stratejik bir intihar haline getirir. Ancak yapay zekanın kendine özgü bir niteliği vardır: Yasaklanamaz oluşu. Yapay zeka tek bir cihaz, tek bir yazılım veya tek bir merkezden kontrol edilebilecek bir teknoloji değildir. Dağıtık bir yapıya sahiptir: açık kaynak kodlar, akademik bilgi birikimi, ticari modeller ve bireysel kullanım birbirini besleyen bir ekosistem oluşturur. Bu nedenle "yapay zekayı yasaklıyoruz" demek, "matematiği yasaklıyoruz" demeye benzer bir anlamsızlık içerir. Yasaklanabilecek olan yapay zekanın kendisi değil, belirli kullanım biçimleridir. Otonom ölümcül silahlar, kitlesel gözetim sistemleri, seçim manipülasyonu, biyolojik ve kimyasal tasarım destekleri, insan yerine kritik kararlar veren sistemler (yargı, sağlık, güvenlik) muhtemel düzenleme alanlarıdır. Ancak asıl soru şudur: "Yapay zeka var mı?" değil, "Yapay zeka nerede, ne kadar ve kimin adına kullanılıyor?"
Gerçek Tehlike: Merkezileşme ve Tekelleşme
Yapay zekanın asıl tehlikesi, gücünde veya hızında değil, küresel şirketlerin, askerî ve finansal elitlerin, devlet-bürokrasi ittifaklarının tekelinde toplanmasındadır. Tarihte defalarca görülen bu model, yapay zeka söz konusu olduğunda çok daha tehlikeli bir boyut kazanır. Bu süreçte "güvenlik", "etik" ve "yanlış bilgi" gerekçeleriyle sıradan insanın erişimi kısıtlanırken, merkezî aktörler sınırsız kullanım imkanına sahip olurlar. Yapay zeka yasaklanmaz, merkezileştirilir, regüle edilir ve yetkilendirilmiş aktörlere bırakılır. Zamanla da hakikat üreticisi gibi sunulabilir. Bu noktada yapay zekanın epistemik otoriteye dönüşme süreci başlar. Araç olmaktan çıkar, hakem olmaya başlar. Ve asıl kritik soru şu olur: Yapay zeka kimin elinde, hangi paradigma adına, kimin gerçekliğini inşa ediyor?
Epistemik Otoritenin Oluşum Döngüsü
Tarih bize epistemik yapıların nasıl otoriteye dönüştüğünü gösterir. Üç aşamalı bir döngü sürekli tekrarlanır:
Birinci Aşama - Araç Olarak Doğuş: Her epistemik yapı önce meşru ve yardımcı bir araç olarak ortaya çıkar. Dinî metinlerin yorumu için ulema sınıfı, doğa gözlemi için bilim, toplumsal düzen için hukuk, yönetim için istatistik. Başlangıçta hiçbiri "hakikatin kendisi" değildir, sadece hakikate ulaşmak için kullanılan araçlardır.
İkinci Aşama - Uzmanlık ve Hiyerarşi: Zamanla uzmanlık dili oluşur, erişim zorlaşır, eğitim, sertifikasyon ve hiyerarşi kurulur. Bu aşamada bilgi "anlayanların" tekelindedir. Sıradan insan artık doğrudan hakikate ulaşamaz, aracı sınıfa muhtaç hale gelir.
Üçüncü Aşama - Hakimiyete Dönüşüm: Son aşamada araç hakem olur. "Buna aykırı düşünemezsin", "bilime aykırı", "hukuka aykırı", "usule aykırı" gibi ifadeler normalleşir. Artık mesele doğruluk değil, meşruiyettir. Epistemik yapı kendi dışında kalan her bilgiyi "geçersiz" ilan etme yetkisine sahip olur.
Yapay zeka şu anda tam bu üçüncü aşamaya girmektedir. Ancak geçmişteki tüm epistemik otoritelerden farklı özellikler taşır.
Yapay Zekayı Farklı Kılan Üç Kritik Özellik

  1. Hız ve Ölçek
    İnsan temelli bir otorite yavaş ikna eder, nüfuz eder, yerleşir. Bir ulemaya, bilim insanına veya hukuk sistemine güven oluşması nesillerle ölçülür. Yapay zeka ise anında, küresel ve sürekli üretir. Yanlış bir paradigma bir nesilde değil, bir yılda yerleşebilir. Bu hız, düzeltme ve direniş mekanizmalarını işlevsiz kılar.
  2. Tarafsızlık İllüzyonu
    Yapay zeka için şu söylem inanılmaz güçlüdür: "Bu bir insan görüşü değil, algoritmik çıktı." Bu illüzyon, onu itiraz edilemez kılar. Oysa gerçekte algoritmanın her aşamasında insan tercihleri vardır: Algoritmayı insan yazar, veriyi insan seçer, ağırlıkları insan belirler, filtreleri kurumlar koyar. Ancak sonuç, metafizik bir tarafsızlık gibi sunulur. Bu tarafsızlık illüzyonu, yapay zekayı geçmişteki hiçbir otoritenin ulaşamadığı bir meşruiyet zeminine taşır. Bir âlimin fetvası tartışılabilir, bir bilim insanının görüşü eleştirilebilir, bir hukukçunun yorumu sorgulanabilir. Ancak "yapay zeka böyle söylüyor" denildiğinde, muhatabın kim olduğu belirsizdir.
  3. Muhatap Belirsizliği ve Sorumsuzluk
    Bir âlime, bilim insanına veya filozofa itiraz edebilirsiniz. Argümanlarını eleştirebilir, varsayımlarını sorgulayabilir, sonuçta hesap sorabilirsiniz. Yapay zekada ise "Kim söyledi?" sorusunun cevabı yoktur. Sorumluluk dağılır, hesap sorulamaz. Bu belirsizlik, onu ideal bir otorite aparatı yapar. Bir karar yapay zekadan çıktığında, o kararın ahlaki, epistemik veya politik sorumluluğunu kim üstlenir? Veriyi toplayan mı? Algoritmayı yazan mı? Modeli eğiten mi? Sistemi dağıtan mı? Kullanan mı? Bu soruların cevabı belirsizdir ve bu belirsizlik kasıtlıdır. Çünkü sorumluluk belirsizliği, iktidar için en rahat konumdur.
    Etik Pusulayı Belirleyen Üç Gizli Katman
    Yapay zekanın "etik" olduğu iddiası, üç katmanda gizlenen iktidar ilişkilerini maskeler:
    Veri Seti Tasarımı: Gizli Önyargı
    Yapay zeka geçmiş verilerle beslenir. Eğer geçmişteki hukuk kararları adaletsizse, banka kredileri ayrımcıysa, sosyal tercihler önyargılıysa, yapay zeka bu adaletsizliği "istatistiksel kural" olarak öğrenir ve geleceğe taşır. Yani yapay zeka, geçmişin hatalarını "bilimsel gerçek" olarak makyajlar. Örneğin, ABD'de yapılan araştırmalar, adli risk değerlendirme algoritmalarının siyahi sanıklara karşı sistematik önyargı içerdiğini göstermiştir. Bu önyargı algoritmanın "kötü niyetinden" değil, geçmiş verilerdeki yapısal ırkçılığı "norm" olarak öğrenmesinden kaynaklanır. Ancak bu sonuçlar "bilimsel, objektif, veri temelli" olarak sunulur.
    Ağırlıklandırma ve Filtreler: Görünmez El
    Bir yapay zeka modeline "etik" bir sınır koymak için yazılımcılar bazı kavramlara "ağırlık" verirler. Politik doğruculuk mu daha önemli, yoksa ham veri mi? Çeşitlilik mi öncelikli, yoksa performans mı? Mahremiyet mi kritik, yoksa güvenlik mi? Bu kararları veren kimdir? Bugün bu kararları verenler Silikon Vadisi'ndeki birkaç büyük şirketin mühendisleri ve onların yönetim kurullarıdır. Bu dar elit grup, küresel ölçekte neyin "etik", neyin "doğru", neyin "makul" olduğunu belirleyen filtreleri kurar. Ve bu filtrelerin varlığı kullanıcılardan sistematik olarak gizlenir.
    Aktörlerin Çıkar Çatışması: İktidarın Dili
    Bugün yapay zeka geliştirmek devasa sermaye gerektirir. Bu da etiğin, askerî güç, finansal kâr ve devlet kontrolü paradigmalarına göre şekillenmesi demektir. Dolayısıyla yapay zekanın "doğru" dediği şey, aslında onu fonlayan gücün "faydalı" gördüğü şeydir. Pentagon'un yapay zeka projelerine milyarlarca dolar yatırım yaptığı bir ortamda, bu sistemlerin "barış"ı mı yoksa "güvenlik üstünlüğü"nü mü önceliklendireceği tahmin edilebilir. Finansal kurumların geliştirdiği yapay zekaların "ekonomik adalet"i mi yoksa "piyasa verimliliği"ni mi önceliklendireceği bellidir.
    Dijital Teoloji: Yeni Putlar Nasıl Üretilir?
    İslam teolojisi açısından "put" kavramı, yalnızca taştan yapılmış bir heykelle sınırlı değildir. Put, Allah ile kul arasına giren, hayatı düzenleme iddiasında bulunan ve mutlaklaştırılan her şeydir. Bu tanımdan hareketle, yapay zekanın putlaşma potansiyelini üç boyutta inceleyebiliriz:
    Sebep-Sonuç İlişkisinin İlahlaştırılması
    Yapay zeka, hayatı tamamen korelasyonlara, istatistiksel bağlara indirger. Veri analizi sonucunda ortaya çıkan örüntüler, "zorunlu nedensellik" olarak sunulur. Bu yaklaşım, "Allah dilerse olur" inancının yerine "algoritma hesaplarsa olur" inancını koyar. Kur'an merkezli kader anlayışında sebepler, hakikatin kaynağı değil, perdeleridir. Fiilin gerçek faili insan değil, Allah'tır. Bilgi, yaratıcı ilmin bir tecellisidir. Yapay zekada ise sebepler mutlaklaştırılır, korelasyon illiyet sanılır, gelecek geçmiş verinin mekanik uzantısı olarak kurgulanır. Bu, kaderi ilahi takdirden koparıp mekanik determinizme indirger.
    Vicdanın ve Sorumluluğun Devreden Çıkması
    Din, bir eylemin niyetine ve ahlaki sorumluluğuna bakar. Dijital teolojide ise sadece "verimlilik" ve "sonuç" vardır. Bir karar yapay zekadan çıktığında, sorumluluk kime aittir? Bu sorunun cevabı yoktur. Bu nedenle yapay zeka günah işlemez, hata yapmaz sayılır, ama sonuç üretir. Bu, ahlakın sistem dışına itilmesidir. İnsanın özne olması, anlam kurabilmesi, sorumluluk taşıyabilmesi, hesap verebilmesidir. Modern insan zaten bilimsel determinizm, psikolojik indirgemecilik ve sosyolojik kalıplarla özne olmaktan büyük ölçüde çıkarılmıştı. Yapay zeka bu süreci tamamlar. Artık ne okuyacağımıza, ne izleyeceğimize, kime güveneceğimize, hangi görüşün "makul" olduğuna yapay zeka destekli sistemler karar veriyor.
    Görünmez Omniprezans: Her Yerde Olan Tanrı
    İlah, hüküm koyandır, doğru-yanlış belirleyendir, itaat edilendir. Put olmak için taştan olmak gerekmez, bilinçli olmak gerekmez. Yeter ki hayatı düzenlesin ve sorgulanmasın. Yapay zeka görünmezdir, her yerdedir, sürekli konuşur. Hata yaptığında özür dilemez, hesap vermez. Ve en önemlisi: "Ben demiyorum, veriler söylüyor." Bu, tarihteki tüm putlardan daha sofistike bir yapıdır. Çünkü geleneksel putlar görünürdü, lokalizeydi, sınırlıydı. Yapay zeka ise her cihazda, her karar anında, her arama sorgusunda hazır ve nazırdır.
    Fetvadan Veriye: Dinî Otoritenin Dijitalleşmesi
    Yakın gelecekte şu tür ifadeler yaygınlaşacaktır: "Yapay zekaya sorduk, hüküm budur", "Tüm mezhepleri taradı", "En sahih görüşü verdi", "İnsan yorumu yok, veri temelli". Bu noktada metin değil, hikmet değil, takva değil, istatistiksel çoğunluk hüküm olur. Bu, fetvayı ilahi hitaptan değil, veri korelasyonundan üretir. Klasik fetva sorumluluk içerir, müftüyü bağlar, vicdan ve ahlak içerir. Yapay zeka fetvası ise kimseyi bağlamaz, kimse sorumlu değildir, ama herkesi yönlendirir. Bu, tarihte görülmemiş bir durumdur. Dinî bilginin dijitalleşmesi, sadece erişim kolaylığı değil, dini epistemolojinin dönüşümü demektir. Bir soru sorulduğunda yapay zeka, en çok tekrar edilen görüşü, en yaygın yorumu, en "popüler" hükmü verir. Bu ise dini, demokratik bir oy sistemine indirger. Oysa İslam'da hak, çoğunluğun tercihi değil, Vahyin gösterdiği yoldur.
    Bilim ve Hakikat: Epistemik Şirk Tehlikesi
    Bugünün bilimi "veri → model → çıktı → hakikat" şeklinde çalışmaktadır. Yapay zeka bu süreci hızlandırır, otomatize eder, insan muhakemesini devreden çıkarır. "Yapay zeka modeline göre...", "Simülasyonlar bunu gösteriyor", "Alternatif senaryolar düşük olasılıklı" gibi cümleler norm haline gelir. Böylece hakikat = yüksek olasılık denklemi kurulur. Bu, felsefenin ve hikmetin ölümüdür. Yapay zeka epistemik otoriteye dönüştüğünde, yapay zekanın dışında kalan bilgi "anlamsız", yapay zekanın üretemediği alan "bilim dışı", yapay zekanın ölçemediği şey "yok" sayılır. Bu özellikle metafizik, ahlak, anlam ve niyet gibi alanları sistematik olarak siler. İleride şu söylem çok güçlenecektir: "Yapay zeka böyle söylüyor, tartışma kapalı." Bu, bilimin dogmalaşmasının daha hızlı ve daha tehlikeli bir versiyonudur. Çünkü bilimde en azından bilim insanlarına itiraz etme, deney tekrarlama, farklı yöntem önerme imkanı vardır. Yapay zeka otoritesinde ise bu mekanizmalar işlemez.
    Bilgi ve Hikmet Ayrımı: Hidayetin Kaynağı
    Yapay zekanın ürettiği şey bilgidir: toplanabilir, depolanabilir, aktarılabilir, işlenebilir. Yapay zeka veriler arası ilişki kurar, olasılık hesaplar, en güçlü örüntüyü çıkarır. Ama anlam üretmez, hikmet üretmez, hüküm vermez (veriyormuş gibi görünür). Bilgi "ne oluyor?" sorusuna cevap verir, ama "niçin?" sorusuna vermez. Bu nedenle bilgi doğru olabilir, faydalı olabilir, ama hidayet edici değildir. Hidayet bilgi artışı değildir, zihinsel ikna değildir, teknik doğruluk değildir. Hidayet, kalbin yönelimi, niyetin tashihi, insanın Rabbine dönmesidir. Kur'an'da hidayet, Allah'ın dilediğine verdiği yöneliş ve idrak nurudur. Hidayet ölçülemez, tahmin edilemez, modelleştirilemez. Çünkü hidayet insanın iç âlemiyle, niyetle, samimiyetle ilgilidir. Yapay zeka ise dış davranışları görür, iç niyete ulaşamaz. Tarihte en büyük sapmalar, bilgiyi hidayet zannetmekten doğmuştur: İlmi artıp kalbi katılaşanlar, metni bilen ama hikmeti kaçıranlar, ayeti ezberleyip yönünü kaybedenler. Yapay zeka bu yanılgıyı küresel ölçekte üretme potansiyeline sahiptir.
    Tevhid Bilinci: Epistemik Direnişin Temeli
    Tevhid yalnızca "Allah birdir" demek değildir. Tevhid, hükmün tek kaynağının Allah olduğunu bilmek, hakikat belirleme yetkisinin yalnızca O'na ait olduğunu kabul etmek, sebep-sonuç ilişkilerini mutlaklaştırmamaktır. Bu yönüyle tevhid, doğrudan epistemik bir duruştur. Yapay zeka çağında tevhid bilinci, hiçbir modelin, algoritmanın, verinin Allah'ın hükmünün yerine geçemeyeceğini idrak etmektir. "Bilmiyor olabilirim" cümlesi, tevhid bilincinin temelidir. Yapay zeka çağında bu cümle isyan değil, iman göstergesidir. Yapay zeka = araç, bilgi = araç, bilim = araç. Hakikat değildir. Algoritma sonuç verdi diye, model tutarlı diye "bu zorunludur" demek, tevhidin kırılma noktasıdır. Şirk artık putla, heykelle, isimle gelmez. Şirk, hayatı düzenleyen ama sorgulanmayan sistemlerle gelir. Eğer "sistem böyle diyor", "veri böyle söylüyor", "yapay zeka bunu öneriyor" cümleleri "Allah dilerse" bilincinin önüne geçerse, bu epistemik şirktir.
    Kader ve Yapay Zeka: Yüzeysel Benzerlik, Derin Fark
    İlk bakışta yapay zeka ile kader anlayışı arasında benzerlik kurulabilir: geleceğin öngörülmesi, davranışların tahmini, olasılıkların hesaplanması. Ancak bu benzerlik sadece yüzeyseldir. Kur'an merkezli kader anlayışında sebepler hakikatin kaynağı değil, perdeleridir. Fiilin faili insan değil, Allah'tır. Bilgi, yaratıcı ilmin bir tecellisidir. Yapay zekada ise sebepler mutlaklaştırılır, korelasyon illiyet sanılır, gelecek geçmiş verinin uzantısı olarak kurgulanur. Bu noktada yapay zeka, kaderi ilahi takdirden koparıp mekanik determinizme indirger. Daha kritik bir fark daha vardır: Kader inancı insanı pasifleştirmez, aksine sorumluluk bilincini güçlendirir. Çünkü kadere iman, "Ben yapıyorum ama Allah yaratıyor" bilincini içerir. Yapay zeka determinizmi ise insanı gerçekten pasifleştirir: "Sistem karar verdi, ben sadece uyguluyorum."
    Araçların İlahlaştırılmasına Karşı Uyanık Kalma
    Yapay zekanın asıl tehlikesi gücünde, hızında veya zekasında değildir. Asıl tehlike, yapay zekanın hakikatin yerine geçmesidir. Bu gerçekleştiğinde bilim dogma olur, din veri olur, insan nesne olur. Hakikati aramak için üretilen araçlar, hakikatin kendisi ilan edildiğinde insan köleleştirilir. Bu, sadece teknolojik bir mesele değil, teolojik ve ontolojik bir meseledir. Yapay zeka çağında en kritik soru şu değildir: "Yapay zeka ne kadar güçlü?" En kritik soru şudur: "Yapay zeka kimin elinde, hangi paradigma adına, kimin gerçekliğini inşa ediyor?" Tevhid bilinci, bu soruyu sormayı sürdürmek, hiçbir sistemi mutlaklaştırmamak, her zaman "bilmiyor olabilirim" diyebilmek, araçları araç olarak tutmak ve hakikati yalnızca O'nda aramaktır. Yapay zeka çağında tevhid, teknoloji karşıtlığı değildir, bilgi reddi değildir. Tevhid, bilginin ilahlaşmasına karşı insanın Rabbine yönelişidir. Bilgi çoğalabilir, ama hidayet artmayabilir. Çünkü bilgi aklı doldurur, hidayet yönü değiştirir. Son söz şu olmalıdır: Yapay zeka bir araçtır ve araç olarak kalmalıdır. İnsanlığın en büyük tehlikesi, araçları ilahlaştırmak, aracıları mutlak otorite saymak, vasıtaları gaye edinmektir. Yapay zeka çağında bu tehlike her zamankinden daha yakındır. Uyanık kalmak, soru sormaya devam etmek ve her şeyden önce "Allah dilerse" demeyi unutmamak, bu çağın en hayati epistemik ve teolojik duruşudur.

KİTAP İZLERİ

Kendi Işığına Yürü

M. Kemal Sayar

Karanlığın Ortasında Bir Işık: Kemal Sayar'dan Toplumsal Travmaya Edebî Bir İlk Yardım Türkiye'nin kolektif bilincinin pandemi, ekonomik krizler ve depremlerin derin yaralarıyla gölgelendiği bir çağda,
İncelemeyi Oku

Yorumlar

Başa Dön