Yapay Genel Zekâya Giden Teknoloji, Tekillik ve Etik Kaygılar

Çevremizdeki akıllı makineler yaygınlaştıkça bu sistemlerin karar alırken insanlara ve çevreye olan etkilerini düzenleyen kurallara olan ihtiyaç artıyor. Peki nasıl “etik robotlar” üretebiliriz?

Cemile Bingol/iStock

Her geçen gün insanların sahip olduğu becerilerle kıyaslanabilir düzeyde özellikler kazanan yapay zekâ uygulamalarının gelecekte daha da yaygınlaşması, önemli etik sorunları da beraberinde getirebilir.

Bir yapay zekâ uygulamasının aldığı kararlar ile bazı insanları korurken diğerlerinin zarar görmesine neden olabileceği çeşitli durumlar ortaya çıkabilir. Örneğin, sürücüsüz bir arabanın bir yayaya çarpmaktan kaçınmasının tek yolunun karşı şeride sapmak olduğunu ancak bu durumda karşı şeritteki daha fazla yolcusu olan bir arabaya çarpacağını düşünün. Yapay zekânın vereceği bu kararın etik sonuçları olacaktır. Bu nedenle yapay zekâ sistemlerinin yalnızca teknik açıdan değil, aynı zamanda etik açıdan da doğru otonom kararlar almalarını sağlayacak şekilde eğitilmeleri esastır.

Etik, insanların başkalarına ve çevreye ilişkin davranışlarını düzenlemek için tanımlanmış bir dizi kriterdir ve eylemleri, diğer canlılar veya çevre üzerindeki iyi ve kötü etkilerine göre değerlendirir. Ancak çevremizdeki akıllı makineler yaygınlaştıkça bu sistemlerin karar alırken insanlara ve çevreye olan etkilerini düzenleyen kurallara olan ihtiyaç artıyor. Peki nasıl “etik robotlar” üretebiliriz?

1940’larda Biyokimya Profesörü ve tanınmış Bilim Kurgu Yazarı Isaac Asimov, robotlar için üç etik yasa belirledi:

Isaac Asimov’un Robotlar İçin Belirlediği Üç Etik Yasa

Birinci Yasa: Bir robot, bir insana zarar veremez veya eylemsizlik yoluyla bir insanın zarar görmesine izin veremez.

İkinci Yasa: Bir robot, insanlar tarafından verilen emirlere -emirler birinci yasa ile çelişmediği sürece- uymalıdır.

Üçüncü Yasa: Bir robot, birinci veya ikinci yasa ile çelişmediği sürece kendi varlığını korumalıdır.

Görünüşte açık olan bu yasalar, aslında birçok belirsizlik içerir. Örneğin zarar kavramı, daha da belirsiz olan kötülük kavramıyla ilişkilidir ancak kötülük, sadece fiziksel olmayabilir.

Bu tür belirsizliklerin farkında olan Asimov, daha sonra diğer yasalardan çok daha önemli olan ‘’Sıfırıncı Yasa’’yı ekledi:

Sıfırıncı Yasa: Bir robot, insanlığa zarar veremez veya eylemsizlikle insanlığın zarar görmesine izin veremez.

Konu akıllı makineler olunca etik sorunlar, bir dizi kurala sıkıştırılamayacak kadar karmaşık olabilir. Dahası doğal dil işlemedeki, yani bilgisayarların insanların konuştuğu dili anlama sürecindeki belirsizlikler, beklenmedik yorumlara yol açarak insan hayatı için yüksek riskli durumlar oluşturabilir. Bu tür sorunlar, amacı makinelere uygun kararlar almaları için araçlar sağlamak olan “makine etiği” veya “roboetik” olarak bilinen yeni bir araştırma alanını ortaya çıkardı. Ancak bu da kaçınılmaz olarak yeni sorulara yol açtı: Bir bilgiyi, etik olarak doğru kararlar almasını sağlayacak şekilde bir akıllı makineye nasıl kodlayabiliriz?

Peki etik robotlara gerçekten güvenebilir miyiz?

 

İlgili Konular

Yapay Zekâ

Bunları da Beğenebilirsiniz

Popüler İçerikler

Giriş Yapmanız Gerekiyor !

Abonelik işlemlerini görüntüleyebilmek için giriş yapmanız gerekmektedir.
 Mevcut bir hesabınız varsa yönlendirileceğiniz sayfadan giriş yapabilirsiniz.
 Henüz üye değilseniz, “Hesap Oluştur” sekmesinden kolayca yeni bir hesap oluşturabilirsiniz.

Abonelik Seçenekleri

Dergimize abone olmak için aşağıdaki seçeneklerden birini tercih edebilirsiniz.

Dijital Abonelik

Fiziksel Abonelik (Basılı Dergi)

Fiziksel abonelik, derginin her sayısının basılı olarak adresinize gönderilmesini kapsar. Abone olduğunuz süre boyunca derginin tüm yeni sayıları düzenli olarak tarafınıza kargo ile ulaştırılır.
Fiziksel abonelik ve tek sayı satın alma işlemlerini, TÜBİTAK Yayınlar web sitesi üzerinden gerçekleştirebilirsiniz.

İçeriğin Devamı ve Etkileşim Özellikleri Abonelere Özeldir

🔒 Bu içeriğin tamamı ve etkileşim özellikleri yalnızca dijital abonelere özeldir.

Henüz bir hesabınız yoksa Bilim ve Toplum OGS sistemi üzerinden kolayca yeni bir hesap oluşturun.
Gönderiyi kaydetmek,  ya da okumaya devam etmek için lütfen giriş yaparak dijital abonelik işleminizi başlatın.