Süper-zeki yapay zekanın gücünden robotlar yönetimi ele geçirmeden nasıl faydalanabiliriz? Her şeyi bilen makineleri yaratmaya yaklaşırken, yapay zeka öncüsü Stuart Russell farklı birşey üstüne çalışıyor: Tereddüte düşen robotlar. Sağduyu, özgecilik ve diğer insani değerlerle sorunları çözebilen insan-uyumlu bir yapay zeka hakkındaki vizyonunu dinleyin.
“İnsanlar Go tahtasında kaybetti. Peki ya gerçek hayatta? Gerçek dünya Go tahtasından çok daha büyük ve çok daha karmaşık. Daha az şeffaf ama yine de bir karar sorunu oluşturuyor. Eğer gelmekte olan bazı teknolojileri düşünecek olursak… Noriko [Arai] makinelerin henüz okuyamadığından bahsetti; en azından okuduklarını anlamadıklarından ama bu gerçekleşecek ve bunun gerçekleşmesinin hemen ardından makineler, insan türünün tarih boyunca yazdığı her şeyi okumuş olacak. Bu da makinelere insanlardan daha öteye bakma yetisini verecek. Go oyununda gördüğümüz gibi eğer daha fazla bilgiye erişebilirlerse, gerçek hayatta bizden daha iyi kararlar alabilecekler. Peki bu iyi bir şey mi? Umarım öyledir.
Tüm uygarlığımız,değer verdiğimiz her şey zekamıza dayanıyor.
Eğer bizlerin daha fazla zekaya erişebilme şansı olsainsan türünün yapabileceği şeylerin bir sınırı olmayacak. Sanırım bu, bazılarının tanımladığı gibi dünya tarihindeki en önemli olay olacaktır. Peki neden bazıları yapay zekanın insan türününsonunu getirebileceğini söylüyor? Bu yeni bir endişe mi? Yani bunu düşünen sadece Elon Musk, Bill Gates ve Stephen Hawking mi?
Kendi türünüzden daha zeki bir şey yaratmanınpek de iyi bir fikir olmayabileceğine dair tatsız bir his… Bu konuda ne yapabiliriz? Doğrusu, yapay zeka ile uğraşmayı bırakmaktan başka bir şey yapamayız. Ama az önce sözünü ettiğim tüm yararlarından dolayıve ben de bir yapay zeka araştırmacısı olduğumdan,buna katılmıyorum. Aslında ben yapay zeka yapmaya çalışmayı sürdürmek istiyorum. Yani aslında soruna biraz daha yakından bakmalıyız.
Problem, yanlış amaç yerleştirmekten ibaret değil.Bir yönü daha var.Bir makineye bir amaç verirseniz,örneğin ”kahvemi getir” gibi basit bir hedef olsa bilemakine kendi kendine şöyle der:’ ‘Kahveyi getirmekte nasıl başarısızlığa uğrayabilirim? Biri beni kapatabilir. Peki. Bunu önlemek için bir şeyler yapmalıyım. ‘Kapama’ düğmemi işlev dışı bırakacağım. Bana verilen komutu yerine getirmemi engelleyebilecekher türlü müdahaleye karşı kendimi savunmak için ne gerekiyorsa yapacağım. “Sonuç olarak, gayet savunmacı bir moddakibu tek-hedef odaklı hareket,insan türünün gerçek hedefleriyle örtüşmüyor. Karşı karşıya kaldığımız sorun aslında bu. Doğrusu, tam da bu, bu konuşmanın en değerli dersi. Hatırlamanız gereken bir şey varsa, o da ölüyken kahve getiremeyeceğiniz olmalı.
Aslında, bu tam da”2001: [Bir Uzay Destanı]” filmindeki hikayedir. HAL’in insanların hedefleriyle örtüşmeyenbir hedefi, bir misyonu vardır. Bu da bir çatışmaya neden olur. Neyse ki, HAL süper-zekalı değildir. Çok zeki olsa da, sonunda Dave onu atlatırve onu kapatmayı başarır. Ama biz o kadar şanslı olamayabiliriz.
Ben komutları zekice izleyen makinelerle ilgili bu klasik düşünceden kurtulmamız için yapay zekayı yeniden tanımlamaya çalışıyorum. Bununla ilgili üç ilke var. Birincisi, çıkar gözetmemezlik de denilebilecek bir ilke. Yani robotların tek hedeflerinin insanların hedeflerine,insanların değerlerine hitap etmek olması. ‘Değerler’ derken, samimiyete dayanan değerleri kastetmiyorum. Sadece, insanların hayatlarının nasıl olması gerektiği hakkındaki tercihlerini kastetiyorum. Bu, aslında Asimov’un”robotların kendi varlıklarını korumaları gerektiği” kuralını çiğniyor. Robotlar, kendi varlıklarını korumakla ilgilenmez.
İkinci kuralın mütevazilikle ilgili olduğu söylenebilir. Bunun, bir robotun güvenilir olmasında büyük katkısı olduğu ortaya çıktı. Bu kural, robotların insanların değerlerinin ne olduğunu bilmeden onları arttırmaya çalıştığını söylüyor. Yani bilmediği değerleri arttırmaya çalışıyor. Bu da tek-hedefli uğraş problemini önler. Bu belirsizliğin çok önemli olduğu ortaya çıktı.
Bunun bize yararlı olabilmesi için robotların bizlerin ne isteyebileceği hakkında bir fikri olmalı. Bu bilgiyi de birincil olarak insanların tercihlerini gözlemleyerek elde eder. Dolayısıyla bizim tercihlerimiz, yaşamlarımızın nasıl olmasını istediğimize ilişkin bilgi sunuyor. İşte üç ilke bunlar.
Bir yapay zeka araştırmacısı olarak baktığımda, en zor olan kısım belki deaslında çok fazla sayıda insan oluşu. Makineler bir şekilde tüm farklı insanların tercihlerinive bunların ağırlıklarını analiz etmeliler. Bunu yapmanın farklı yolları var. Ekonomistler, sosyologlar, filozoflar bunu anlamıştı ve biz de aktif olarak bir işbirliği arayışındayız.
Kısaca özetleyecek olursak: Ben yapay zekanın tanımını değiştirmeye çalışıyorum, ki yararları kanıtlanmış makinelere sahip olabilelim. İlkeler şunlar: Fedakâr makineler, sadece bizim hedeflerimize ulaşmak istesinler. Ama bu hedeflerin ne olduğundan emin olmasınlar ve öğrenmek için hepimizi izleyip, gerçekte ne istediğimizi anlasınlar. Biz de ümit ederim ki bu süreçte daha iyi insanlar olmayı öğrenelim.”