Amerikan ordusu, yapay zekânın yönettiği pilotsuz savaş uçaklarını test ediyor. Hava Kuvvetleri’nin bu programı sadece geleceğin teknolojisini şekillendirmekle kalmayacak; savaş taktikleri, askeri kültür ve savunma endüstrisi üzerinde büyük devrim yaratacak. Ama işin etik kısmı şimdiden endişe verici.
Yapay Zekâ, ‘Licence To Kill’ yani Öldürme Ehliyeti’ne kavuşacak. Peki Yapay Zekâ’nın kullandığı jet uçağı kimi öldüreceğine nasıl karar verecek? Dünyanın en büyük Hava Kuvvetleri üslerinden biri olan Florida Eglin Üssü’nde şu an ‘Oppenheimer’ filmindekine benzer bir durum var. Hava Kuvvetleri subayları ve bilim adamlarından oluşan alışılmadık bir ekip, üste yapay zekâ ile uçan savaş uçaklarını üretmek için toplanmış halde. Ekibin başında 20 yıl önce Irak’ta Saddam Hüseyin’e sığınak delici akıllı bombalar atan programı geliştiren Tümgeneral Scott Jobe bulunuyor. Yapay Zekâ’nın kullandığı ilk uçağın adı, Tom Cruise’un Hitler’e darbeye kalkışan bir subayı oynadığı filmden ilham alınarak konulmuş, Valkyrie... Kıdemli F-16 ve F-22 pilotları insansız Valkyrie avcı uçağıyla sürekli test uçuşuna çıkarak, onu eğitiyor. İnsansız uçak derken bu, Irak’ta Afganistan’da kullanılan yerden joystik’le yönetilen İHA’lardan tamamen farklı. Yerden idare edilmeyen, tamamen yapay zekâ bir robot yazılım tarafından manevra edilen gerçek bir savaş uçağından bahsediyoruz. Hava Kuvvetleri, 5 yıl sonra bu uçakları savaşa hazır hale getirmek istiyor. Bu amaçla Kongre’den 5.8 milyar dolar bütçe istemiş. Hedef ilk etapta tanesi 3 milyon dolar gibi düşük maliyetle 1000-2 bin adet yapay zekalı robot uçak üretmek. Daha gelişmiş olanların tanesi ise 25 milyon dolar. Bunların bazıları gözetleme veya ikmal görevlerine odaklanacak, diğerleri saldırı filoları halinde uçacak. Ya da bir insan pilotun komuta ettiği filoda ‘sadık kanat adamı’ (loyal wingman) olarak hizmet verecek. Yapay zekalı uçaklar, pilotlu savaş uçaklarının önünde uçarak erken ve yüksek riskli gözetim yapabilecek. Düşmanın hava savunmasını devre dışı bırakmada rol oynayabilecek. İnsan pilotlu bir uçak için çok tehlikeli sayılabilecek karadaki füze hedeflerini yok etme riskini alabilecek. Buraya kadar güzel ama başka tartışmalar beraberinde geliyor. Öldürme işini makinelere taşeron ederek, bizim yerimize, bilgisayar sensörlerinin insan canını almasına izin vererek sorumluluktan kurtulma fikri can sıkıcı. Ahlaki bir çizgiyi aşıyoruz. Daha kolay insan öldürülmesinin önünü açıyoruz.
TERMİNATOR KORKUSU
Daha da önemlisi ise, dışarı çıkıp etrafa mermi yağdırma potansiyeline sahip makinelerin varlığı düşünüldüğünde yukarıdaki tartışma geri planda kalıyor. Terminatör filmlerindeki gibi... Valkyrie ile birlikte uçan, onu eğiten F-15 savaş pilotlarından Binbaşı Ross Elder “O, öldürmek ve hayatta kalmak istiyor” yorumunu yapıyor. Sürekli öğrenen, her veriden ders ve kendi sonucunu çıkaran hissiz bir makineden bahsediyoruz. Binbaşı Elder o kadar saat beraber uçmasına rağmen yapay zekâ ile yönetilen Valkyrie uçağına hâlâ güvenmiyor. “Kendi kararlarını veren bir şeyin kanadında uçuyorum. Ve bu bir insan beyni değil” demekle yetiniyor. Yapay zekanın kullandığı savaş uçakları, yani tamamen robotların iradesiyle idare edilen savaş makineleri, insan öldürmeye gelince neye göre karar verecekler? Örneğin yazılımları tamamen Müslüman-İslam karşıtı bir bilgisayar mühendisinin elinde şekillendiyse ne olacak? ABD’li yetkililer, cihazların kendi başına yapabileceklerini sınırlamak için etrafına bir güvenlik duvarı inşa ettiklerini söylüyor. Yani, yapay zekâ destekli bir uçağın ne zaman ve nasıl düşmanla çatışmaya gireceğine her zaman bir insanın karar vereceğini ifade ediyorlar. İnanmak istiyoruz. Şu an savaş pilotlarını, yapay zekâlı pilotsuz uçaklarla kaynaştırma eğitimleri veren ABD Hava Kuvvetleri, en geç 10 yıla kadar insanla, robot uyumunu sağlamayı, aralarında güven tahsis etmeyi hedefliyor. Yukarıda bahsettiğim kötü senaryolar, şüphesiz ABD’lileri de endişelendiriyor. Ama insanoğlunun ilginç tarafı; bir fikrin iyi mi, kötü mü olduğunu görmesi için mutlaka icat etmesi gerektiği... Aynı Oppenheimer’da olduğu gibi... Önce sonuçları göreceğiz, sonra tedbir alınacak. Ümit ederim.