BİLİŞİM

Kriz Anında Yapay Zeka ve Aciliyet Etiği

Eğer bir kriz anında yapay zeka bize yardımcı olacaksa yeni bir etik anlayışına ihtiyacımız var. “Aciliyet etiği” denen etik türü sonradan düşünülmektense yapay zekanın temel bir parçası haline getirilmesi gerekiyor.

Cambridge Üniversitesi’nden İstihbaratın Geleceği Merkezi araştırmacıları Jess Whittlestone ve meslektaşları Yapay Makine İstihbaratı ile ilgili bir çalışma başlattılar. Çalışmaya göre eğer yapay zeka bir kriz anında bize yardımcı olacaksa yeni, daha hızlı bir şekilde aciliyet etiği olarak adlandırılan bir AI etiği kurgulamak gerekiyor.

Araştırmacılara göre bu araştırma, AI problemleri meydana gelmeden önce tahmin etmek, AI sistemlerinde güvenlik ve güvenilirlik oluşturmak için daha iyi yollar bulmak ve teknolojinin gelişiminin ve kullanımının tüm düzeylerinde teknik uzmanlığı vurgulamak anlamına geliyor.

Bu önerilerin temelinde, etiğin, bir eklenti veya sonradan düşünülmektense yapay zekanın nasıl yapıldığının ve kullanıldığının bir parçası haline gelmesi gerektiği fikri var.

Konuyla ilgili olarak Jess Whittlestone’un cevapladığı bazı sorular şöyle:

Yapay zeka için neden yeni bir etik türüne ihtiyacımız var?

Bu pandemi ile insanların birdenbire yapay zekanın faydalı olup olmadığı, hayat kurtarabilecekleri hakkında gerçekten konuştukları bir durumdayız.

Ancak kriz, AI’nın güvenli bir şekilde konuşlandırılması için yeterince sağlam etik prosedürlerimizin olmadığını ve kesinlikle hızlı bir şekilde uygulanabilecek prosedürlerin olmadığını açıkça ortaya koydu.

Elimizdeki etik ile ilgili sorun nedir?

Son birkaç yılı AI etik girişimlerini gözden geçirerek, sınırlamalarına bakarak ve başka neye ihtiyacımız olduğunu sorarak geçirdik. Biyomedikal etik gibi bir şeye kıyasla, yapay zeka için sahip olduğumuz etik çok pratik değil. Üst düzey ilkelere çok fazla odaklanmaktadır.

Hepimiz AI’nin iyilik için kullanılması gerektiğine katılabiliriz. Ama bu gerçekten ne anlama geliyor? Üst düzey ilkeler çatıştığında ne olur?

Örneğin, AI hayat kurtarma potansiyeline sahiptir, ancak bu gizlilik gibi sivil özgürlüklere mal olabilir. Bu değiş tokuşları birçok farklı kişi için kabul edilebilir şekillerde nasıl ele alabiliriz? Kaçınılmaz anlaşmazlıklar ile nasıl başa çıkılacağını çözemedik.

AI etiği, yenilerini öngörmek yerine mevcut sorunlara cevap verme eğilimindedir. Günümüzde insanların algoritmik önyargı hakkında tartıştıkları sorunların çoğu, polislik ve şartlı tahliye kararları gibi yüksek profilli işler yanlış gittiğinde ortaya çıkıyor.

Ancak etik, proaktif olmalı ve zaten yanlış gidenlere değil, neyin yanlış gidebileceğine hazırlanmalıdır. Açıkçası, geleceği tahmin edemeyiz. Ancak bu sistemler daha güçlü hale geldikçe ve daha yüksek bahisli alanlarda kullanıldıkça, riskler büyüyecektir.

Bu prosedürlerin uygulanmamasıyla hangi fırsatları kaçırdık?

Mümkün olanın üzerine yazmak kolaydır ve AI muhtemelen bu krizde asla büyük bir rol oynamazdı. Makine öğrenim sistemleri yeterince olgun değil.

Ancak, AI’nın tıbbi teşhis veya hastaneler arasında kaynak tahsisi için test edildiği birkaç durum vardır. En başından beri etik kurallar göz önünde bulundurularak tasarlanmış olsalar bile, bu tür sistemleri daha geniş bir şekilde kullanabilmiş olabiliriz.

Özellikle kaynak tahsisi ile hangi hastaların en öncelikli olduğuna karar veriyorsunuz. Bu tür kararlara yardımcı olması için AI kullanmadan önce yerleşik bir etik çerçeveye ihtiyacınız vardır.

Aciliyet etiği sadece mevcut AI etiği daha iyi hale getirme çağrısı mıdır?

Bu bir parçası.Yapay zeka etiği için sağlam ve pratik süreçlere sahip olmamamız bir kriz senaryosunda işleri daha da zorlaştırır. Ancak bu gibi zamanlarda şeffaflığa da daha fazla ihtiyaç duyarsınız. İnsanlar kara kutu olarak makine öğrenme sistemleri ile şeffaflık eksikliği hakkında çok konuşurlar. Ancak, sistemlerin nasıl kullanıldığı konusunda başka bir şeffaflık türü daha vardır.

Bu, hükümetler ve kuruluşların ödünleşmeleri içeren acil kararlar aldığı bir krizde özellikle önemlidir. Kimin sağlığına öncelik veriyorsunuz? Ekonomiyi yok etmeden hayatları nasıl kurtarıyorsunuz? Bir AI, kamu kararlarında kullanılırsa, şeffaflık her zamankinden daha fazla önemlidir.

Neyin değişmesi gerekiyor?

Etik konusunda farklı düşünmeliyiz. Yanda veya sonrasında meydana gelen bir şey olmamalı – sizi yavaşlatan bir şey. Bu sistemleri ilk etapta nasıl kurduğumuzun bir parçası olmalıdır: tasarımla etik.

Bazen “etik” in yanlış kelime olduğunu hissediyorum. Söylediğimiz şey, makine öğrenimi araştırmacıları ve mühendislerinin, yeni bir takviye-öğrenme algoritması tasarlamak gibi temel araştırmalar yapıyorlar mı yoksa geliştirmek gibi daha pratik bir şey mi yapıyorlarsa yapsınlar üzerinde düşünmeleri için eğitilmeleri gerektiğidir. Eğer işleri gerçek dünyadaki ürün ve hizmetlere girerse bu neye benzeyebilir? Ne tür sorunlar doğurabilir?

Bunlardan bazıları çoktan başladı. Bazı erken dönem kariyeri yapay zeka araştırmacıları ile çalışıyoruz, onlarla bu düşünce tarzını çalışmalarına nasıl getirecekleri hakkında konuşuyoruz. Ne olduğunu görmek biraz deney gibi.

Tüm AI tasarım ve kullanım düzeylerinde teknik uzmanlığa sahip insanlara ihtiyacımız olduğunu söylediniz. Neden?

Teknik uzmanlığın ahlakın hepsi ve sonu olduğunu söylemiyorum, ama temsil edilmesi gereken bir perspektif. Tüm sorumluluğun araştırmacılar üzerinde olduğunu söylediğim gibi konuşmak istemiyorum, çünkü AI’nın nasıl kullanıldığına dair önemli kararların birçoğu zincir, endüstri veya hükümetler tarafından daha da ileri sürülüyor.

Ancak endişeleniyorum, bu kararları veren insanlar, yanlış gitme yollarını her zaman tam olarak anlayamıyorlar. Bu nedenle, teknik uzmanlığa sahip insanları dahil etmeniz gerekir. Yapay zekanın neler yapabileceği ve yapamayacağı hakkındaki sezgilerimiz çok güvenilir değil.

Yapay zeka gelişiminin tüm seviyelerinde ihtiyacınız olan şey, etiği gerçekten anlayan insanlarla çalışmak için makine öğreniminin ayrıntılarını gerçekten anlayan insanlardır. Bununla birlikte, disiplinler arası işbirliği zordur. Farklı uzmanlık alanlarına sahip insanlar genellikle şeyler hakkında farklı şekillerde konuşurlar. Bir makine öğrenimi araştırmacısının mahremiyetle ne ifade ettiği, bir avukatın mahremiyetle ne anlama geldiğinden çok farklı olabilir ve sonuçta birbirleriyle konuşan insanlarla karşılaşabilirsiniz. Bu yüzden bu farklı grupların birlikte çalışmaya alışmaları önemlidir.

Kaynak
https://www.technologyreview.com/2020/06/24/1004432/ai-help-crisis-new-kind-ethics-machine-learning-pandemic

Matematiksel

Busra Meral

Keyifli okumalar...

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu