[vc_row css=”.vc_custom_1629803910077{margin-bottom: 24px !important;}”][vc_column]
Yapay zekânın beslendiği verinin sahip olduğu etik değerlerin, bu sistemlere de aktarıldığı araştırmalar sonucu ortaya çıkıyor.
Yapay zeka hayatımızın her alanında kullanılmaya başlandıkça, makinelerden giderek daha önemli kararlar vermelerini istiyoruz. Mesela; halihazırda otonom dronların kullanımını belirleyen uluslararası bir sözleşme bulunmakta. Potansiyel olarak bir roket ateşleyebilecek ve birini öldürebilecek bir dronunuz varsa, füze konuşlandırılmadan önce karar verme sürecinde bir insan olması gerekir. Şimdiye kadar, yapay zekanın bazı kritik kontrol problemlerini, bunun gibi bir dizi kural ve düzenleme ile çözülmesi sağlandı.
Sorun şu ki, yapay zekalar giderek daha fazla anlık kararlar vermek zorunda kalıyor. Örneğin, yüksek hızlı ticarette, tüm finansal işlemlerin yüzde 90’ından fazlası artık algoritmalar tarafından yönlendiriliyor, bu sebeple kararların kontrolünü bir insana verme şansı yok.
Aynı şey otonom otomobiller için de geçerli. Bir çocuk yolda kalırsa hemen yapay zekanın tepki vermesi gerekir. Bu sebeple de yapay zekanın durumunu kontrol etmesi önemlidir. Bu konu, yapay zeka ve kontrolünde ilginç etik zorluklar yaratıyor.[/vc_column_text][/vc_column][/vc_row][vc_row css=”.vc_custom_1629803910077{margin-bottom: 24px !important;}”][vc_column]
Massachussets Teknoloji Enstitüsü kısa adıyla MIT’deki araştırmacılar tarafından oluşturulan, ekran başında bazı kararlar vermek zorunda olduğumuz bir oyun olan The Moral Machine yani Ahlak Makinesi çevrimiçi platformu, benzerliklerimiz ve farklılıklarımız konusunda aslında bize oldukça şey anlatıyor.[/vc_column_text][/vc_column][/vc_row][vc_row css=”.vc_custom_1629803910077{margin-bottom: 24px !important;}”][vc_column]
Zaman içinde Vagon İkilemi düşünce deneyinin farklı varyasyonları da ortaya çıktı. Sonrasında ise seçimlerimiz ve etik üzerine çok fazla tartışıldı. The Moral Machine de aslında bu konuyu ele alıyor. Fakat olaya bazı teknolojik sorunları da ekliyor. Çünkü oluşturulmasındaki temel amaç sürücüsüz arabaların benzer kararlar almak için nasıl donatılması gerektiğini bulmaktı. The Moral Machine, iki yüzden fazla ülkedeki oyunculardan yanıtlar toplayarak, bu oyuncuların zor bir seçimle karşı karşıya kaldıklarında sürücüsüz bir arabanın yapmasını istedikleri şeyleri örnekliyor.
Sürücüsüz arabalar, hala bazı kusurları olsa da, yakın gelecekte hayatımıza dahil olacak. Bu bizi belki dikkati dağınık ve öfkeli sürücülerin neden olduğu kazalardan koruyacak. Fakat yapay zeka ile donatılmış araçlar da bazı kararlar vermek zorunda kalacak. İşte bu sebeple de sistemin daha önce hiç görülmemiş durumlarda uygun şekilde tepki vermesi için eğitilmesi gerekiyor. Zira kendi kendine giden bir araba, ölüme neden olma riski taşıyan bir karar da alabilir.
The Moral Machine’nin yaratıcılarının anlamak ve çözmek istediği şey de tam olarak buydu. Bu yüzden insanları kaza senaryolarıyla karşı karşıya getiren ve onlardan kimin yaşayıp kimin öleceğini seçmelerini isteyen bir oyun geliştirdiler. Dünya çapında milyonlarca insan, Vagon İkileminin bu daha ayrıntılı versiyonunda görüşlerini dile getirdi.[/vc_column_text][/vc_column][/vc_row][vc_row css=”.vc_custom_1629803910077{margin-bottom: 24px !important;}”][vc_column]
Moral Machine, kimin yanıt verdiği ve bu insanların nerede yaşadığı hakkında da veri topladı. Bu farklılıklardan bazıları önemliydi. Araştırmacılar üç ülke kümesi belirlediler. Bunlar Kuzey Amerika ve birkaç Avrupa ülkesinden oluşan batı kümesi; Asya ülkelerinden oluşan doğu kümesi ve çoğunlukla Orta ve Güney Amerika ülkelerinden oluşan güney kümesi idi. Kültürel farklılıklar alınan kararları önemli bir ölçüde etkiledi.
Mesela batı kümesi, araç içindeki yolcuların güvenliğine yaya güvenliğinden daha fazla önem veriyordu. Yaşa saygı duyma eğilimde olan Doğu kümelenmesi ise gençleri kurtarma konusunda pek de istekli değildi. Güney kümesi ise kadınları ve formda olan insanları kurtarmak için daha güçlü bir duygu geliştirmişti. Örneğin kırmızı ışıkta geçenler ile ilgili kısımda varlıklı ülkelerde yaşayanlar kurala uyarak geçen ve olası bir kaza ile yüzleşen kişiyi kurtarmayı tercih ederken, ekonomik düzeyi az gelişmiş ve/veya düşük olan ülkelerde, kırmızı ışıkta beklemeden geçene karşı çok daha fazla hoşgörü vardı.[/vc_column_text][/vc_column][/vc_row][vc_row css=”.vc_custom_1629803910077{margin-bottom: 24px !important;}”][vc_column]
Her ülke insanı öğretilen doğrulardan yola çıkıyorsa; kendi doğrularımızı başkalarına kabul ettirmek için neden bu kadar çaba harcıyor ve bizden farklı olanlara dünyayı dar ediyoruz? Yoksa, başkalarını kendimize benzetmeye çalışmak da bize öğretilen ve sorgulamadan kabul ettiğimiz onca şeyden yalnızca biri mi?
Şu da bir gerçek ki, bir bilgisayar programı gerçek hayatı mükemmel bir şekilde simule edemez. Daha önce bir çarpışmada bulunduysanız, ne yapacağınızı düşünecek vaktiniz olmadığını da bilirsiniz. Bazı kararlar subliminal verilebilir. Fakat sürücüsüz arabalar birçok yönden bizden daha üstün olacak ve belki de bu ikilemlere girdiklerinde herkesi kurtaran üçüncü bir seçenek bulabilecekler. Her şeye rağmen, bu anket, sürücüsüz bir arabanın dünyanın neresinde olduğuna bağlı olarak karar verme mekanizmasını değiştirmek zorunda kalabileceğini çok da iyi bir şekilde gözler önüne seren bir çalışma. En önemlisi ise kültürel farklılıklarımızın ahlak anlayışımızı nasıl şekillendirdiği ile ilgili olarak gerçeklerle bizi baş başa bırakıyor.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text] Kaynaklar:
Jay Ingram; The Science of Why, Volume 5: Answers to Questions About the Ordinary, the Odd, and the Outlandish; Simon & Schuster; Illustrated edition (Nov. 10 2020)
https://dergipark.org.tr/en/download/article-file/1530133
Erişim Tarihi: 23. 05. 2022
[/vc_column_text][/vc_column][/vc_row]