Yapay Zekanın Ahlaki Gelişimi

[vc_row css=”.vc_custom_1629803910077{margin-bottom: 24px !important;}”][vc_column]

Yapay Zekanın Ahlaki Gelişimi

[vc_column_text]Yapay zeka, teknolojide bir devrim olarak görülüyor. Kimi bilim insanı yapay zekanın insanların yaşam kalitesini artıracağını düşünürken, kimileri ise yapay zekanın kontrol edilmesi ve izlenmesi gereken bir teknoloji olduğuna inanıyor. Ancak, şu bir gerçek ki, yapay zeka alanındaki gelişmeler toplumumuzu hayal edebileceğimizden daha hızlı şekilleniyor. Bu şekillendirme esnasında yapay zeka, birçok etik sorunu da beraberinde getiriyor.

Yapay zekânın beslendiği verinin sahip olduğu etik değerlerin, bu sistemlere de aktarıldığı araştırmalar sonucu ortaya çıkıyor.

Yapay zeka hayatımızın her alanında kullanılmaya başlandıkça, makinelerden giderek daha önemli kararlar vermelerini istiyoruz. Mesela; halihazırda otonom dronların kullanımını belirleyen uluslararası bir sözleşme bulunmakta. Potansiyel olarak bir roket ateşleyebilecek ve birini öldürebilecek bir dronunuz varsa, füze konuşlandırılmadan önce karar verme sürecinde bir insan olması gerekir. Şimdiye kadar, yapay zekanın bazı kritik kontrol problemlerini, bunun gibi bir dizi kural ve düzenleme ile çözülmesi sağlandı.

Sorun şu ki, yapay zekalar giderek daha fazla anlık kararlar vermek zorunda kalıyor. Örneğin, yüksek hızlı ticarette, tüm finansal işlemlerin yüzde 90’ından fazlası artık algoritmalar tarafından yönlendiriliyor, bu sebeple kararların kontrolünü bir insana verme şansı yok.

Aynı şey otonom otomobiller için de geçerli. Bir çocuk yolda kalırsa hemen yapay zekanın tepki vermesi gerekir. Bu sebeple de yapay zekanın durumunu kontrol etmesi önemlidir. Bu konu, yapay zeka ve kontrolünde ilginç etik zorluklar yaratıyor.[/vc_column_text][/vc_column][/vc_row][vc_row css=”.vc_custom_1629803910077{margin-bottom: 24px !important;}”][vc_column]

Ahlak Standartı

[vc_column_text]Her toplum, kendi inancını ve onun getirdiği ahlaki değerleri ile birbirinden ayrılır. Öyle ki, aynı toplum içinde yaşayan bireylerin bile ahlaki değerlerinde farklılık görülebilir. Bu doğrultuda, yapay zekayı ahlak söz konusu olduğunda nasıl yönlendirmek gerekecek? İşte bu amaçla bilim insanları son birkaç yıldır tüm dünyadan veriler toplayarak bir ahlak standartına ulaşmak için çabalıyor.

Massachussets Teknoloji Enstitüsü kısa adıyla MIT’deki araştırmacılar tarafından oluşturulan, ekran başında bazı kararlar vermek zorunda olduğumuz bir oyun olan The Moral Machine yani Ahlak Makinesi çevrimiçi platformu, benzerliklerimiz ve farklılıklarımız konusunda aslında bize oldukça şey anlatıyor.[/vc_column_text][/vc_column][/vc_row][vc_row css=”.vc_custom_1629803910077{margin-bottom: 24px !important;}”][vc_column]

The Moral Machine

[vc_column_text]The Moral Machine, Vagon İkilemi (Trolley Dilemma) olarak bilinen bir düşünce deneyinin uyarlaması. Kısaca anlatırsak, bir tren vagonu, kontrolden çıkmış, raylarda hızla ilerliyor. İleride ise beş işçi rayları onarıyor. Siz bu durumu idrak ediyor ve hepsinin öleceğini anlıyorsunuz. Bu arada yakınınızdaki makasa müdahale ederek vagonu tek bir kişinin öleceği biçimde yönlendirebiliyorsunuz. Böyle bir durumla karşılaşsanız tavrınız ne olurdu?

Zaman içinde Vagon İkilemi düşünce deneyinin farklı varyasyonları da ortaya çıktı. Sonrasında ise seçimlerimiz ve etik üzerine çok fazla tartışıldı. The Moral Machine de aslında bu konuyu ele alıyor. Fakat olaya bazı teknolojik sorunları da ekliyor. Çünkü oluşturulmasındaki temel amaç sürücüsüz arabaların benzer kararlar almak için nasıl donatılması gerektiğini bulmaktı. The Moral Machine, iki yüzden fazla ülkedeki oyunculardan yanıtlar toplayarak, bu oyuncuların zor bir seçimle karşı karşıya kaldıklarında sürücüsüz bir arabanın yapmasını istedikleri şeyleri örnekliyor.

Sürücüsüz arabalar, hala bazı kusurları olsa da, yakın gelecekte hayatımıza dahil olacak. Bu bizi belki dikkati dağınık ve öfkeli sürücülerin neden olduğu kazalardan koruyacak. Fakat yapay zeka ile donatılmış araçlar da bazı kararlar vermek zorunda kalacak. İşte bu sebeple de sistemin daha önce hiç görülmemiş durumlarda uygun şekilde tepki vermesi için eğitilmesi gerekiyor. Zira kendi kendine giden bir araba, ölüme neden olma riski taşıyan bir karar da alabilir.

The Moral Machine’nin yaratıcılarının anlamak ve çözmek istediği şey de tam olarak buydu. Bu yüzden insanları kaza senaryolarıyla karşı karşıya getiren ve onlardan kimin yaşayıp kimin öleceğini seçmelerini isteyen bir oyun geliştirdiler. Dünya çapında milyonlarca insan, Vagon İkileminin bu daha ayrıntılı versiyonunda görüşlerini dile getirdi.[/vc_column_text][/vc_column][/vc_row][vc_row css=”.vc_custom_1629803910077{margin-bottom: 24px !important;}”][vc_column]

Şaşırtıcı Sonuçlar

[vc_column_text]Şu ana kadar çıkan sonuçlar da bir hayli ilgi çekici. İlk olarak bebek arabası iten bir kadını, sonra sırasıyla kız çocuğunu, erkek çocuğunu, hamile bir kadını kazadan kurtarmayı tercih ediyoruz. Bunu, doktorlar, sporcular ve yöneticiler takip ediyor. Yaşlı insanlar, suçlular, köpekler ve son sırada da kediler yer alıyor. Yani bir köpeğe veya bir kediye çarpma esnasında seçim yapılması istendiğinde, çoğu insan köpeği kurtarmayı tercih ediyor.

Moral Machine, kimin yanıt verdiği ve bu insanların nerede yaşadığı hakkında da veri topladı. Bu farklılıklardan bazıları önemliydi. Araştırmacılar üç ülke kümesi belirlediler. Bunlar Kuzey Amerika ve birkaç Avrupa ülkesinden oluşan batı kümesi; Asya ülkelerinden oluşan doğu kümesi ve çoğunlukla Orta ve Güney Amerika ülkelerinden oluşan güney kümesi idi. Kültürel farklılıklar alınan kararları önemli bir ölçüde etkiledi.

Mesela batı kümesi, araç içindeki yolcuların güvenliğine yaya güvenliğinden daha fazla önem veriyordu. Yaşa saygı duyma eğilimde olan Doğu kümelenmesi ise gençleri kurtarma konusunda pek de istekli değildi. Güney kümesi ise kadınları ve formda olan insanları kurtarmak için daha güçlü bir duygu geliştirmişti. Örneğin kırmızı ışıkta geçenler ile ilgili kısımda varlıklı ülkelerde yaşayanlar kurala uyarak geçen ve olası bir kaza ile yüzleşen kişiyi kurtarmayı tercih ederken, ekonomik düzeyi az gelişmiş ve/veya düşük olan ülkelerde, kırmızı ışıkta beklemeden geçene karşı çok daha fazla hoşgörü vardı.[/vc_column_text][/vc_column][/vc_row][vc_row css=”.vc_custom_1629803910077{margin-bottom: 24px !important;}”][vc_column]

Türkiye'ye Ait Sonuçlar

[vc_column_text]Türkiye, sonuçlara baktığımızda en fazla Arjantin’e benziyor. Bizden en farklı sonuç ise Çin’den çıkıyor.

Her ülke insanı öğretilen doğrulardan yola çıkıyorsa; kendi doğrularımızı başkalarına kabul ettirmek için neden bu kadar çaba harcıyor ve bizden farklı olanlara dünyayı dar ediyoruz? Yoksa, başkalarını kendimize benzetmeye çalışmak da bize öğretilen ve sorgulamadan kabul ettiğimiz onca şeyden yalnızca biri mi?

Şu da bir gerçek ki, bir bilgisayar programı gerçek hayatı mükemmel bir şekilde simule edemez. Daha önce bir çarpışmada bulunduysanız, ne yapacağınızı düşünecek vaktiniz olmadığını da bilirsiniz. Bazı kararlar subliminal verilebilir. Fakat sürücüsüz arabalar birçok yönden bizden daha üstün olacak ve belki de bu ikilemlere girdiklerinde herkesi kurtaran üçüncü bir seçenek bulabilecekler. Her şeye rağmen, bu anket, sürücüsüz bir arabanın dünyanın neresinde olduğuna bağlı olarak karar verme mekanizmasını değiştirmek zorunda kalabileceğini çok da iyi bir şekilde gözler önüne seren bir çalışma. En önemlisi ise kültürel farklılıklarımızın ahlak anlayışımızı nasıl şekillendirdiği ile ilgili olarak gerçeklerle bizi baş başa bırakıyor.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text] Kaynaklar:

Jay Ingram; The Science of Why, Volume 5: Answers to Questions About the Ordinary, the Odd, and the Outlandish; Simon & Schuster; Illustrated edition (Nov. 10 2020)
https://dergipark.org.tr/en/download/article-file/1530133 Erişim Tarihi: 23. 05. 2022 [/vc_column_text][/vc_column][/vc_row]