DNA origami tekniğiyle altıgen peptit yapılardan oluşan ve tümör hücrelerini hedef alan akıllı nanorobotlar geliştiren bilim insanları kanser hücrelerini yok etmeyi hedefliyor.
Cemile Bingol/iStock
Her geçen gün insanların sahip olduğu becerilerle kıyaslanabilir düzeyde özellikler kazanan yapay zekâ uygulamalarının gelecekte daha da yaygınlaşması, önemli etik sorunları da beraberinde getirebilir.
Bir yapay zekâ uygulamasının aldığı kararlar ile bazı insanları korurken diğerlerinin zarar görmesine neden olabileceği çeşitli durumlar ortaya çıkabilir. Örneğin, sürücüsüz bir arabanın bir yayaya çarpmaktan kaçınmasının tek yolunun karşı şeride sapmak olduğunu ancak bu durumda karşı şeritteki daha fazla yolcusu olan bir arabaya çarpacağını düşünün. Yapay zekânın vereceği bu kararın etik sonuçları olacaktır. Bu nedenle yapay zekâ sistemlerinin yalnızca teknik açıdan değil, aynı zamanda etik açıdan da doğru otonom kararlar almalarını sağlayacak şekilde eğitilmeleri esastır.
Etik, insanların başkalarına ve çevreye ilişkin davranışlarını düzenlemek için tanımlanmış bir dizi kriterdir ve eylemleri, diğer canlılar veya çevre üzerindeki iyi ve kötü etkilerine göre değerlendirir. Ancak çevremizdeki akıllı makineler yaygınlaştıkça bu sistemlerin karar alırken insanlara ve çevreye olan etkilerini düzenleyen kurallara olan ihtiyaç artıyor. Peki nasıl “etik robotlar” üretebiliriz?
1940’larda Biyokimya Profesörü ve tanınmış Bilim Kurgu Yazarı Isaac Asimov, robotlar için üç etik yasa belirledi:
Isaac Asimov'un Robotlar İçin Belirlediği Üç Etik Yasa
Birinci Yasa: Bir robot, bir insana zarar veremez veya eylemsizlik yoluyla bir insanın zarar görmesine izin veremez.
İkinci Yasa: Bir robot, insanlar tarafından verilen emirlere -emirler birinci yasa ile çelişmediği sürece- uymalıdır.
Üçüncü Yasa: Bir robot, birinci veya ikinci yasa ile çelişmediği sürece kendi varlığını korumalıdır.
Görünüşte açık olan bu yasalar, aslında birçok belirsizlik içerir. Örneğin zarar kavramı, daha da belirsiz olan kötülük kavramıyla ilişkilidir ancak kötülük, sadece fiziksel olmayabilir.
Bu tür belirsizliklerin farkında olan Asimov, daha sonra diğer yasalardan çok daha önemli olan ‘’Sıfırıncı Yasa’’yı ekledi:
Sıfırıncı Yasa: Bir robot, insanlığa zarar veremez veya eylemsizlikle insanlığın zarar görmesine izin veremez.
Konu akıllı makineler olunca etik sorunlar, bir dizi kurala sıkıştırılamayacak kadar karmaşık olabilir. Dahası doğal dil işlemedeki, yani bilgisayarların insanların konuştuğu dili anlama sürecindeki belirsizlikler, beklenmedik yorumlara yol açarak insan hayatı için yüksek riskli durumlar oluşturabilir. Bu tür sorunlar, amacı makinelere uygun kararlar almaları için araçlar sağlamak olan “makine etiği” veya “roboetik” olarak bilinen yeni bir araştırma alanını ortaya çıkardı. Ancak bu da kaçınılmaz olarak yeni sorulara yol açtı: Bir bilgiyi, etik olarak doğru kararlar almasını sağlayacak şekilde bir akıllı makineye nasıl kodlayabiliriz?
Peki etik robotlara gerçekten güvenebilir miyiz?
Devamını okumak için TÜBİTAK Yayınlar web sitesini ziyaret ederek abone olabilirsiniz.