Uzmanlar uyarıyor: Yapay zeka artık kötü niyetli kullanım için olgun hale geldi. Füzeye dönüşmüş insansız hava araçları, kamuoyunu yanlış yönlendiren yapay zeka üretimi videolar, bilgisayar korsanı bilgi sistemleri… İşte kötü ellere geçen yapay zekanın tehditlerine birkaç örnek.
Yapay zeka ve makine öğrenmesi (machine learning) yetenekleri eşine rastlanmayan bir hızla ilerliyor. Bu teknolojilerin geniş çaplı ve çok yararlı uygulamaları otomatik çeviriden tıbbi görüntü analizine kadar gidiyor. Yeni uygulamaların sayısı da çığ gibi büyüyor. Öte yandan, yapay zekanın kötü amaçlı kullanımı konusuna ise şimdiye kadar yeterince önem verilmediği anlaşılıyor.
Geçtiğimiz günlerde, işte tam da bu konuda, üniversite, sivil toplum ve endüstriden 14 ayrı kuruluşta çalışan 26 uzmanın hazırladığı ‘Yapay Zekanın Kötü Amaçlı Kullanımı – Öngörme, Önleme, ve Etkilerini Azaltma’ (The Malicious Use of Artificial Intelligence – Forecasting, Prevention and Mitigation) konulu bir rapor yayınlandı. Rapor, yapay zeka teknolojilerinin kötücül (malicious) kullanımının oluşturduğu tehditleri inceliyor ve bu tehditleri daha iyi öngörme, önleme ve etkilerini en aza indirmenin yollarını öneriyor.
Rapor, günümüz ile önümüzdeki beş yıla odaklanıyor ve yapay zekanın günümüzde ulaştığı düzeyin, ‘haydut devletler’ (rogue states), suçlular ve teröristler tarafından kullanımına el verdiğine özellikle dikkati çekiyor. Yapay zeka sistemlerini tasarlayanların, uygulamalarının kötü amaçlı kullanımını en aza indirmek için daha çok çaba göstermeleri ve hükümetlerin de bu amaçla yeni yasalar yapmaları gerektiği de vurgulanıyor.
Onlarca yıldan beri yapay zeka ve makine öğrenmesi (machine learning) konusunda söylentiler hep gerçeklerin çok ötesinde idi. Ama artık değil! Yüz sayfalık bu rapor, günümüzde artık iş görmeyen bilgi ve bilgisayar güvenliği yöntemlerini gözden geçiriyor ve buna çözüm olabilecek yaklaşımlar öneriyor: Kötüye kullanılan yapay zekaya dayanıklı donanım ve yazılım tasarımı ile bunlarla el ele gitmesi gereken yasalar ve uluslararası yönetmelikler gibi.
Ezber bozan gelişmeler
Özellikle endişe verici olan, son dönemde yapay zekanın, Güçlendirilmiş ya da Pekiştirilmiş Öğrenme (Reinforcement Learning) olarak adlandırılan teknoloji ile yeni bir döneme girmiş olması. Bu yöntemle, yapay zeka sistemleri, belirli alanlarda, örneklere ya da yönlendirmeye gerek olmaksızın ‘süper insan’ zekasına ulaşabiliyorlar.
Yakın gelecekte yapay zekanın nasıl bir güvenlik tehdidine dönüştürebileceğinin örnekleri şunlar olabilir:
*Google’ın DeepMind bölümünün geliştirdiği Go oyunu şampiyonlarını ezip geçen AlpaGo uygulaması, verilerde yepyeni örüntüler (pattern) bulmak için ya da bilgisayar sistemlerine girmek amacı ile yazılımlardaki boşlukları keşfetmek için bilgisayar korsanları (hacker’ler) tarafından kullanılabilir.
*Kötü niyetli biri, bir insansız hava aracını, yüz tanıma yazılımları aracılığı ile belirli bir kişiyi hedefleyen bir silaha dönüştürebilir.
*İnternet Robotları (BOT’lar), yapay zekanın ürettiği ve gerçeğinden ayırt edilemeycek videolar ile yalan haber üretme ve politik yönlendirme amacı ile kullanılabilir.
*Yine, bir bilgisayar korsanı, yapay zeka kontrolündeki bir insan sesi sentezi sistemini kullanarak, kendisini, kuşku duyulmayacak bir biçimde, başkasının yerine koyabilir.
Raporun yazarlarından, Oxford Üniversitesi İnsanlığın Geleceği Enstitüsü’nden Miles Brundage şöyle diyor:
“Yapay zeka, bireyler, kurumlar ve devletlerin karşı karşıya olduğu riskleri artırmakta ve değiştirmekte. Bir bilgi sistemini uzman bir bilgisayar korsanı olarak eğiten ve kullanan bir suçludan, bireylerin mahremiyetini yok eden, profillerini çıkartan ve onları baskı altına alan bir izleme sistemine kadar, güvenliğin karşı karşıya olduğu tehditlerin spektrumu çok geniş.”
Üç güvenlik alanı seçilmiş
Rapor analizini üç güvenlik alanı üzerinde yapılandırıyor ve bu üç alandaki güvenlik tehditlerinin değişimini etkileyici örneklerle açıklıyor:
Sayısal Güvenlik: Siber saldırıların yapay zeka ile otomasyonu bu saldırıların büyüklüğü ile etkinliği arasındaki ters orantıyı değiştirecek. Emek yoğun siber saldırıların tehdidi artacak. Ayrıca, yapay zeka kontrolündeki ses sentezi aracılığı ile başkalarının kimliğine bürünüp insani zayıflıkları kullanan, yine yapay zeka aracılığıyla yapılan bilgisayar korsanlığı ile yazılım boşluklarını bulup bilgisayarlara giren, ya da ters örnekler ve bilgi zehirleme teknikleri kullanarak öğrenen makineleri yanıltan yeni tür siber tehditler beklenmekte.
Fiziksel güvenlik: İnsansız hava araçları (drones), ya da kendi kendine idare eden (autonomous) silahlarla yapılan saldırıların yapay zeka kontrolüne geçmesi bu saldırıların oluşturduğu tehdidi artıracaktır. Yapay zekanın yeni tür fiziksel tehditleri ise siber-fiziksel sistemleri ele geçirmek biçiminde olacaktır. Örneğin sürücüsüz bir aracın kontrolün alarak ona kaza yaptırmak, ya da halen insanlar tarafından uzaktan kumanda edilmesi olanaksız fiziksel sistemleri, örneğin binlerce mikro drone’dan oluşan bir robot sürüsünü yönetmek gibi.
Politik güvenlik: Yapay zekanın, bireyleri izleme (kitlelerden toplan verilerin analizi), inandırma (hedefe yönelik propaganda üretimi) ve aldatma (üzerinde oynanmış görüntü ve videolar) amacı ile yapılan işleri otomatikleştirmek amacı ile kullanımı, mahremiyetin yok edilmesi ve sosyal manipülasyona dönük tehditleri çok artıracaktır.
Yeni uygulamalar, büyük veriler aracılığı ile bireylerin davranışları, psikolojileri hatta inançlarını çözümleyip bunları kullanacaklar. Bu endişe verici gelişmelerin oluşturduğu tehditler daha çok otoriter rejimler altındaki ülkeler için geçerli olsa da demokrasilerde de sağlıklı bir toplumsal diyaloğu engelleyeceğe benziyorlar.
Özetle, söz konusu rapor alarm zillerini tam zamanında çalıyor. Yapay zekanın kendi kendini geliştirip çoğaltarak insanları köle ya da yok etme olasılığı henüz bir spekülasyondan öteye gitmiyor. Ama yukarıda özetlediğimiz kötü amaçlı kullanımı daha bugünden büyük tehlike.
Erdal Musoğlu
Kaynak: herkese bilim teknoloji, (Türkiye’nin Haftalık Bilim, Teknoloji, Kültür ve Eleştirel Düşünce Dergisi)