Filozof John Searle, yapay zekanın yalnızca bilişi simüle edebileceğini, ancak düşünemeyeceğini “Çin odası düşünce deneyi” aracılığıyla savunur.
Günümüzde yapay zekanın yapamayacağı şeylerin sayısı giderek azalıyor. Kendi kendine giden arabalardan ödüllü resimler oluşturmaya, milyarlarca tweet’i analiz etmeye ve (ironik bir şekilde) bir makale yazmaya kadar hemen her yerde hayatımıza dahil olmuş durumdalar.
Bir sonraki adım ne diye düşündüğümüz bu zamanlar da aklımıza filozof John Searle geliyor. Kendisi bir yapay zekanın asla gerçekten insanlar gibi düşünemeyeceğini iddia ediyor. Üstelik bunu da Çin Odası adı verilen ilginç bir düşünce deneyi ile destekliyor.
Yapay Zeka ile Yapay Genel Zeka arasındaki fark nedir?
Deneyin detaylarına geçmeden önce, Yapay Zeka (AI) ile Yapay Genel Zeka (AGI) arasında bir ayrım yapmamız gerekiyor. Aslında size yapay zekayı anlatmamıza gerek yok. Sonuçta hemen her an onlarla bir etkileşim durumundayız.
Ancak aşina olduğumuz yapay zekanın da bazı sınırlamaları vardır. Örneğin, bir yapay zeka Twitter’da milyarlarca kelimeyi filtrelemek ve analiz etmek konusunda iyi olabilir. Ancak bir şakayı anlamak söz konusu olduğunda ise bunu muhtemelen başaramayacaktır. Bir yapay zeka sürekli olarak eğitilmek zorundadır. Bu da belli veri grupları sayesinde olacaktır.
Oysaki yapay genel zeka dediğimiz zamanlar da yeni görevleri hızla öğrenebilen, farklı görevler arasındaki analojileri görebilen ve yeni sorunları esnek bir şekilde çözebilen bir üst sınıftan bahsediyoruz. Peki yapay genel zekanın var olması mümkün mü? Searle, Çin Odası düşünce deneyini bu soruya bir cevap vermek için yapmıştı.
Çin odası düşünce deneyi nedir?
Filozof John Searle, Minds, Brains ve Science (1984) adlı kitabında yukarıdaki soruyu ele aldı. Bir yapay zekanın insanlar tarafından yapılan zihinsel süreçleri taklit edeceğini, ancak bu esnada ne yaptığının farkında olmayacağını savundu. Başka bir deyişle, böyle bir zeka, bir dizi kuralı (algoritmayı) anlamlandırmadan takip edebilirdi. Amacını daha iyi açıklamak için de Çin Odası deneyini tasarladı.
Tek kelime Çince bilmeyen bir Türk’ü bir odaya kapattığımızı düşünelim. Bu esnada da eline, bir dizi Çince karaktere başka bir karakter dizisiyle nasıl yanıt vereceğini söyleyen, Türkçe yazılmış bir kılavuz kurallar kitabı verelim. Odanın dışından birileri, kapının altından üzerinde Çince karakterler ile yazılı sorular olan kağıtlar atsın.
İçerideki adam da “Şu harfler gelirse şu harfleri yaz” türünden talimatlara bakarak bu sorulara cevap versin. Sonrasında da bu cevapları kapının ardından geri yollasın. Sonucunda bu görev bu adam için anlamsızdır. Gelgelelim farkına varmaksızın tek kelime Çince bilmeden Çince konuşan birini taklit etmiş olacaktır. Bu durumda dışardaki kişilerin içerde bir Çinli’nin olduğuna ikna olması da olasıdır.
Searle’e göre bilgisayarlar sembolleri insan düşüncesini simüle edecek şekilde işlerler. Ancak aslında akılsız otomatlardır. Bütün yaptıkları, onları oluşturanların kendilerine programlamış oldukları kurallar çerçevesinde sembolleri dağıtmaktır.
Teknolojik ilerlemeler süreci değiştirebilir mi?
Bir kişinin zeki olup olmadığına karar verirken, beynini açıp nöron hareketlerini izlemeyiz. Bunun yerine sorulara verdiği cevapları temel alırız. Bu amaçla yapay zekanın babası olarak kabul edilen Alan Turing tarafından planlanan bir araç Turing testi adı ile bilinmektedir.
Turing testi kısaca şöyledir. Bir odada testi yapan kişi ekrana bir konuşma yazmaktadır. Farklı bir odada ekran karşısında olan bir kişi bir insanla mı yoksa bir bilgisayarla mı konuştuğunu bilmez. Konuşma sırasında testi yapan kişi konuştuğunun insan olduğuna ikna olursa, bilgisayar Turing Testini geçecektir. ( Detayları öğrenmek için bu yazımıza göz atabilirsiniz: Turing Testi Nedir? Bir Test İnsanı Robottan Nasıl Ayırır?)
Turing testi uzun süre geçilememişti. Ancak günümüzde süreç biraz farklı işliyor. Google’ın sanal asistanı, insanlar bir yapay zeka ile konuştuğunun farkına varmadan telefon görüşmeleri yapıp, randevular ayarlayabilir. Bunu deneyimlemeseniz bile, bankanız veya verdiğiniz yemek siparişi ile ilgili yardıma ihtiyaç duyduğunuzda bir sohbet botu ile muhtemelen etkileşime girmişsinizdir.
Ancak tüm bunların arkasında düzinelerce mühendis, matematikçi, programcı vb. insanların olduğunu unutma eğilimindeyiz. Algoritmalar bazı görevlerde insanlardan daha iyi performans gösterebilir. Ancak bu onların düşündükleri veya sürekli öğrendikleri anlamına gelmez.
Yani bir bilgisayar yapay zekâya yönelik Turing testini geçmiş olsa bile, bu onun gerçekten de her şeyi anladığını kanıtlamaz. Çin Odası deneyinde olduğu gibi sadece kendine verilen talimatları uygulayarak cevaplar verir.
Çin Odası Deneyi Neyi Kanıtladı?
Oxford Üniversitesi’nde profesör olan Luciano Floridi, Searle ile aynı fikirde. Teknolojik gelişmelerden bağımsız olarak, yapay zekanın doğal sınırlamasının devam edeceğini söylüyor. Buna bir örnek olarak da sayıları sıfırla çarpmayı veriyor.
Sıfırla çarpma durumunda, bir sayı ne kadar büyük olursa olsun sonuç her zaman sıfır olacaktır. Searle’ın Çin odası düşünce deneyinde kullanım kılavuzu daha kalın ve daha karmaşık hale gelse bile, odanın içindeki kişi asla Çince anlamayacaktır.
Peki ya gelecek? Günümüzde insanların nasıl zeki olduklarını ve örneğin dil becerilerini nasıl geliştirdiklerini hala anlamaya çalışıyoruz. Çok yok alsak da henüz beynin gizemlerini bile tam olarak çözebilmiş durumda değiliz. Belki de bu süreçteki gelişmeler Yapay Genel Zekaya giden yolu açacaktı.
A Thousand Brains (2021) adlı kitabın yazarı sinirbilim üzerine araştırmalar yapan Jeff Hawkins böyle düşünüyor. Ona göre bir yapay zekanın, insana benzemese bile, bir bedene sahip olması Yapay Genel zekaya giden yolu açacaktır.
İnsan beyni beden yoluyla çalışır: dokunarak, hareket ederek, görerek, işiterek, keşfederek, tadarak, merak ederek öğreniriz. Bu bakış açısına göre bir yapay zeka da benzer şekilde sensörlere ve hareketli mekanizmalara ihtiyaç duyacaktır. işte bu nedenle de sinirbilimciler, robotik araştırmacıları ve yapay zeka geliştiriciler birlikte çalışıyor.
Hawkins, bu tür gelişmelerin önümüzdeki yirmi ila otuz yılda gerçekleşeceği görüşünde. Her şey, öncelikle insanların nasıl öğrendiğini ve düşündüğünü; bedenlerimiz ile bizi çevreleyen bağlam arasındaki bilişsel etkileşimi anlamaya bağlı gibi gözüküyor. Sonrasının insanlık adına ne anlama geleceği ise elbette henüz belirsiz
Kaynaklar ve İleri Okumalar:
- What Is The Chinese Room Experiment In AI?; https://analyticsindiamag.com/
- Britannica, The Editors of Encyclopaedia. “Chinese room argument”. Encyclopedia Britannica, 19 Jul. 2024, https://www.britannica.com/topic/Chinese-room-argument. Accessed 18 September 2024.
- Can AI Think? Searle’s Chinese Room Thought Experiment. Yayınlanma tarihi: 16 Ocak 2023; Bağlantı: https://www.thecollector.com/
Size Bir Mesajımız Var!
Matematiksel, 2015 yılından beri yayında olan ve Türkiye’de matematiğe karşı duyulan önyargıyı azaltmak ve ilgiyi arttırmak amacıyla kurulmuş bir platformdur. Sitemizde, öncelikli olarak matematik ile ilgili yazılar yer almaktadır. Ancak bilimin bütünsel yapısı itibari ile diğer bilim dalları ile ilgili konular da ilerleyen yıllarda sitemize dahil edilmiştir. Bu sitenin tek kazancı sizlere göstermek zorunda kaldığımız reklamlardır. Yüksek okunurluk düzeyine sahip bir web sitesi barındırmak ne yazık ki günümüzde oldukça masraflıdır. Bu konuda bizi anlayacağınızı umuyoruz. Ayrıca yazımızı paylaşarak da büyümemize destek olabilirsiniz. Matematik ile kalalım, bilim ile kalalım.
Matematiksel