Chris Stokel-Walker | The Guardian
Yapay zekânın yapabildiği pek çok şey var. Alışveriş listenizi düzenleyebilir; çocuklarınız isyan bayrağını çektiğinde onlara özel bir uyku hikâyesi uydurarak oyalanmalarını sağlayabilir. İş yerinde sizi daha verimli kılabilir ve hükûmetlerin daha etkin çalışmasına yardımcı olabilir.
Daha az yazılan ve artık daha yüksek sesle konuşmamız gereken konu ise yapay zekânın askerîleştirilmesinin taşıdığı risklerdir. Son üç ay içinde Donald Trump’ın Beyaz Saray’ının, iki kez rejim değişikliği amacıyla – ya da İran örneğinde olduğu gibi buna mümkün olduğunca yaklaşmak için ve işi sıradan İranlıların tamamlamasına bırakacak şekilde – yapay zekâ kullandığı bildiriliyor.
Önce, çoğu kişinin ChatGPT’ye kıyasla biraz daha seçici bir alternatif olarak kullandığı Anthropic’in Claude adlı yapay zekâ modeli, iddiaya göre Nicolás Maduro’nun Venezuela’daki yerleşkesinden kaçırılmasının hem planlanmasında hem de icrasında kullanıldı; ancak modelin tam olarak nasıl kullanıldığına dair ayrıntılar belirsiz. Ardından bu hafta sonu, aynı yapay zekâ aracının İran’a yönelik son derece yıkıcı füze saldırılarına yardımcı olan istihbaratı analiz etmek için hedef belirleme ve simülasyon çalıştırma gibi amaçlarla. yeniden kullanıldığı ortaya çıktı;
Bu iki anın önemini abartmak zor. Yapay zekâ, bilinmeyen sayıda can kaybına yol açan ve Orta Doğu’yu sarsan askerî operasyonların planlanması ve yürütülmesinde kullanıldı.
Bu durum sizi huzursuz ediyorsa yalnız değilsiniz. Anthropic’in CEO’su Dario Amodei, Claude için iki “kırmızı çizgiyi” gevşetmeyi reddettikten sonra ABD başkanıyla sert ve kamuya açık bir tartışmanın içine girdi: modelin kitlesel iç gözetim amacıyla kullanılmaması ve anlamlı bir insan denetimi olmaksızın hedef seçip angaje olan tam otonom silahların geliştirilmemesi. OpenAI ise hızla devreye girerek Pentagon’la bir anlaşma imzaladı; ancak söz konusu anlaşmanın şartlarının, Anthropic’in talep ettiğinden daha güçlü korumalar içerdiğini savunuyor.
Sözleşmenin ayrıntıları ne olursa olsun, şunu yeniden vurgulamak gerekiyor: kamuya ilk çıktığında e-postaları özetleyen ve iş başvurusu mektubu yazmanıza yardım eden sohbet tabanlı bir araç olarak sunulan bir teknoloji, artık bilgiyi şiddete dönüştüren zincirin bir yerinde konumlanmış durumda.
“Yapay zekâyı kim kontrol etmeli ve askerî amaçlarla kullanılırsa ne olur?” gibi sorular eskiden akademik panellerde soyut biçimde tartışılırdı. Endişeler vardı ama henüz gerçekleşmemiş oldukları için uzakta hissediliyordu. Ocak ayında Maduro özel kuvvetler tarafından yakalandığında ve İran’a bombalar düşmeye başladığında, görünüşe göre tüm bunlarda yapay zekâ da rol oynarken, bu hesap değişti.
Silahlı çatışmaların temel ilkesi, büyük ve korkutucu silahlara sahip olmak ama onları kullanmamaktı. Amaç caydırıcılıktı. Karşılıklı garantili imha teorisi, nükleer düğmeye basma konusunda tarafları geri adım atmaya zorladı. (Endişe verici olan, savaş simülasyonlarından elde edilen ilk bulguların, yapay zekâ temelli karar vericilerin nükleer silahlar konusunda daha tetikte ve hızlı davranma eğiliminde olduğunu göstermesidir.)
Artık bu mazeret geçerliliğini yitirdi. Daha fazla ülke askerî planlamasında ve operasyonlarında yapay zekâ kullanacak ve etkili olduğu gösterildiği için bunu yapmaları anlaşılabilir; ancak askerî kararların yapay zekâya bırakılmasının açık ahlaki sorunlar doğurduğu da ortada. Askerî tarihçiler son birkaç ayda yaşananlara geriye dönüp baktığında, yapay zekânın bu şekilde kullanılmasını Japonya’ya atılan nükleer bombalara benzetebilirler: öncesi belirgin, sonrası ise belirsiz bir dönüm noktası.
Peki buna karşı ne yapılabilir? Çok az şey. Askerî yapay zekâ kullanımına dair kapsamlı bir yasak getirilmiş olmalıydı. Demis Hassabis, şirketi DeepMind’i Google’a satmayı ancak teknolojinin askerî amaçlarla kullanılmayacağı taahhüdü verilmesi koşuluyla kabul ettiğinde ilkesel bir duruş sergilemişti; ancak o günden bu yana bu çizgiden yavaş yavaş uzaklaşıyoruz. Geçen yıl, artık Alphabet adını taşıyan şirket, yapay zekâyı silah sistemlerinde kullanmama taahhüdünü sessizce geri çekti. Trump’ın adımları ise bu fikri yüksek sesle geçersiz kıldı.
Şimdi uluslararası toplumun, Trump’ı bu uçurumun kenarından geri çekmek için ciddi çaba göstermesi gerekiyor. Müttefikler, Beyaz Saray’a yalnızca yapay zekânın askerî kullanımında sorumlu davranması yönünde değil, bağlayıcı kısıtlamaları kabul etmesi yönünde de baskı yapmalı. Buna uluslararası taahhütler, şeffaf tedarik standartları ve anlamlı denetim mekanizmaları da dâhil olmalı; diğer ülkeler de buna katılmalı ve etiği eylemi engelleyen bir fren gibi görmemeli. Çünkü dünyanın en güçlü ordusu, tüketici düzeyindeki yapay zekâ modellerini rejim değişikliği operasyonlarının bir parçası olarak normalleştirirse, yapay zekâ konusunda artık aynanın öte tarafına geçmiş oluruz: bütünüyle yeni ve çok daha tehlikeli bir dünyaya.
Chris Stokel-Walker, TikTok Boom: The Inside Story of the World’s Favourite App adlı kitabın yazarıdır.
İlk kez The Guardian’da yayınlanan bu yazı Gazedda tarafından Türkçe’ye çevrildi.



