• Künye
  • Dayanışma
  • İletişim
  • Gizlilik Politikası
Salı, Mart 24, 2026
Bulamadık
Tümünü Gör
Gazedda
13 °c
Nicosia
12 ° Çar
13 ° Per
  • ANA SAYFA
  • YAZARLAR
    • GAZEDDA YAZARLARI
    • GÜNEYDEN YAZARLAR
      • PENNA
    • DÜNYADAN YAZARLAR
      • PROJECT SYNDICATE
    • EDİTORYAL KOLEKTİF
  • SÖYLEŞİ
  • BELLEK & TARİH
    • YERİN HAFIZASI
  • TÜM İÇERİK
    • HABER ARŞİVİ
      • KIBRIS
      • DÜNYA
      • KORONAVİRÜS
    • MULTİMEDYA ARŞİVİ
      • GAZEDDAPOD
      • GAZEDDAWEBTV
  • ANA SAYFA
  • YAZARLAR
    • GAZEDDA YAZARLARI
    • GÜNEYDEN YAZARLAR
      • PENNA
    • DÜNYADAN YAZARLAR
      • PROJECT SYNDICATE
    • EDİTORYAL KOLEKTİF
  • SÖYLEŞİ
  • BELLEK & TARİH
    • YERİN HAFIZASI
  • TÜM İÇERİK
    • HABER ARŞİVİ
      • KIBRIS
      • DÜNYA
      • KORONAVİRÜS
    • MULTİMEDYA ARŞİVİ
      • GAZEDDAPOD
      • GAZEDDAWEBTV
Bulamadık
Tümünü Gör
Gazedda
Bulamadık
Tümünü Gör

Tehlikeli Bir Dönüm Noktası: Trump Savaşlarını Yapay Zekâ ile Yürütüyor 

Çoğu insanın günlük işler için yalnızca sohbet eden bir araç olarak kullandığı teknoloji, ABD’nin askerî saldırganlığına yardımcı oluyor olabilir. Ve bu konuda yapabileceğimiz pek fazla şey yok.

KONUK YAZAR KONUK YAZAR
4 Mart 2026
Okuma Süresi: 5 dk
A A
0
https://bsky.app/profile/gazeddakibris.bsky.socialhttps://www.threads.net/@gazeddakibris

Chris Stokel-Walker | The Guardian

Yapay zekânın yapabildiği pek çok şey var. Alışveriş listenizi düzenleyebilir; çocuklarınız isyan bayrağını çektiğinde onlara özel bir uyku hikâyesi uydurarak oyalanmalarını sağlayabilir. İş yerinde sizi daha verimli kılabilir ve hükûmetlerin daha etkin çalışmasına yardımcı olabilir.

Daha az yazılan ve artık daha yüksek sesle konuşmamız gereken konu ise yapay zekânın askerîleştirilmesinin taşıdığı risklerdir. Son üç ay içinde Donald Trump’ın Beyaz Saray’ının, iki kez rejim değişikliği amacıyla – ya da İran örneğinde olduğu gibi buna mümkün olduğunca yaklaşmak için ve işi sıradan İranlıların tamamlamasına bırakacak şekilde – yapay zekâ kullandığı bildiriliyor.

Önce, çoğu kişinin ChatGPT’ye kıyasla biraz daha seçici bir alternatif olarak kullandığı Anthropic’in Claude adlı yapay zekâ modeli, iddiaya göre Nicolás Maduro’nun Venezuela’daki yerleşkesinden kaçırılmasının hem planlanmasında hem de icrasında kullanıldı; ancak modelin tam olarak nasıl kullanıldığına dair ayrıntılar belirsiz. Ardından bu hafta sonu, aynı yapay zekâ aracının İran’a yönelik son derece yıkıcı füze saldırılarına yardımcı olan istihbaratı analiz etmek için hedef belirleme ve simülasyon çalıştırma gibi amaçlarla. yeniden kullanıldığı ortaya çıktı;

Bu iki anın önemini abartmak zor. Yapay zekâ, bilinmeyen sayıda can kaybına yol açan ve Orta Doğu’yu sarsan askerî operasyonların planlanması ve yürütülmesinde kullanıldı.

Bu durum sizi huzursuz ediyorsa yalnız değilsiniz. Anthropic’in CEO’su Dario Amodei, Claude için iki “kırmızı çizgiyi” gevşetmeyi reddettikten sonra ABD başkanıyla sert ve kamuya açık bir tartışmanın içine girdi: modelin kitlesel iç gözetim amacıyla kullanılmaması ve anlamlı bir insan denetimi olmaksızın hedef seçip angaje olan tam otonom silahların geliştirilmemesi. OpenAI ise hızla devreye girerek Pentagon’la bir anlaşma imzaladı; ancak söz konusu anlaşmanın şartlarının, Anthropic’in talep ettiğinden daha güçlü korumalar içerdiğini savunuyor.

Sözleşmenin ayrıntıları ne olursa olsun, şunu yeniden vurgulamak gerekiyor: kamuya ilk çıktığında e-postaları özetleyen ve iş başvurusu mektubu yazmanıza yardım eden sohbet tabanlı bir araç olarak sunulan bir teknoloji, artık bilgiyi şiddete dönüştüren zincirin bir yerinde konumlanmış durumda.

“Yapay zekâyı kim kontrol etmeli ve askerî amaçlarla kullanılırsa ne olur?” gibi sorular eskiden akademik panellerde soyut biçimde tartışılırdı. Endişeler vardı ama henüz gerçekleşmemiş oldukları için uzakta hissediliyordu. Ocak ayında Maduro özel kuvvetler tarafından yakalandığında ve İran’a bombalar düşmeye başladığında, görünüşe göre tüm bunlarda yapay zekâ da rol oynarken, bu hesap değişti.

Silahlı çatışmaların temel ilkesi, büyük ve korkutucu silahlara sahip olmak ama onları kullanmamaktı. Amaç caydırıcılıktı. Karşılıklı garantili imha teorisi, nükleer düğmeye basma konusunda tarafları geri adım atmaya zorladı. (Endişe verici olan, savaş simülasyonlarından elde edilen ilk bulguların, yapay zekâ temelli karar vericilerin nükleer silahlar konusunda daha tetikte ve hızlı davranma eğiliminde olduğunu göstermesidir.)

Artık bu mazeret geçerliliğini yitirdi. Daha fazla ülke askerî planlamasında ve operasyonlarında yapay zekâ kullanacak ve etkili olduğu gösterildiği için bunu yapmaları anlaşılabilir; ancak askerî kararların yapay zekâya bırakılmasının açık ahlaki sorunlar doğurduğu da ortada. Askerî tarihçiler son birkaç ayda yaşananlara geriye dönüp baktığında, yapay zekânın bu şekilde kullanılmasını Japonya’ya atılan nükleer bombalara benzetebilirler: öncesi belirgin, sonrası ise belirsiz bir dönüm noktası.

Peki buna karşı ne yapılabilir? Çok az şey. Askerî yapay zekâ kullanımına dair kapsamlı bir yasak getirilmiş olmalıydı. Demis Hassabis, şirketi DeepMind’i Google’a satmayı ancak teknolojinin askerî amaçlarla kullanılmayacağı taahhüdü verilmesi koşuluyla kabul ettiğinde ilkesel bir duruş sergilemişti; ancak o günden bu yana bu çizgiden yavaş yavaş uzaklaşıyoruz. Geçen yıl, artık Alphabet adını taşıyan şirket, yapay zekâyı silah sistemlerinde kullanmama taahhüdünü sessizce geri çekti. Trump’ın adımları ise bu fikri yüksek sesle geçersiz kıldı.

Şimdi uluslararası toplumun, Trump’ı bu uçurumun kenarından geri çekmek için ciddi çaba göstermesi gerekiyor. Müttefikler, Beyaz Saray’a yalnızca yapay zekânın askerî kullanımında sorumlu davranması yönünde değil, bağlayıcı kısıtlamaları kabul etmesi yönünde de baskı yapmalı. Buna uluslararası taahhütler, şeffaf tedarik standartları ve anlamlı denetim mekanizmaları da dâhil olmalı; diğer ülkeler de buna katılmalı ve etiği eylemi engelleyen bir fren gibi görmemeli. Çünkü dünyanın en güçlü ordusu, tüketici düzeyindeki yapay zekâ modellerini rejim değişikliği operasyonlarının bir parçası olarak normalleştirirse, yapay zekâ konusunda artık aynanın öte tarafına geçmiş oluruz: bütünüyle yeni ve çok daha tehlikeli bir dünyaya.

Chris Stokel-Walker, TikTok Boom: The Inside Story of the World’s Favourite App adlı kitabın yazarıdır.

İlk kez The Guardian’da yayınlanan bu yazı Gazedda tarafından Türkçe’ye çevrildi.

Etiketler: AIdonald turmpiransavaşyapay zeka
KONUK YAZAR

KONUK YAZAR

Gazedda'ya konuk olarak yazan ve/veya yazıları başka mecralarda yayınlanan yazarlar.

Petrol 200 Dolara Çıkarsa Dünya Nasıl Bir Yer Olur?
DÜNYADAN YAZARLAR

Petrol 200 Dolara Çıkarsa Dünya Nasıl Bir Yer Olur?

KONUK YAZAR
24 Mart 2026
Medya İran Konusunda Nasıl Hizaya Geliyor
DÜNYADAN YAZARLAR

Medya İran Konusunda Nasıl Hizaya Geliyor

KONUK YAZAR
23 Mart 2026
İsrail’in Nükleer Silahları Var ve Bunları Kullanabilir
DÜNYADAN YAZARLAR

İsrail’in Nükleer Silahları Var ve Bunları Kullanabilir

KONUK YAZAR
19 Mart 2026
İsrail Savaş Haberlerini Nasıl Sansürlüyor
DÜNYADAN YAZARLAR

İsrail Savaş Haberlerini Nasıl Sansürlüyor

KONUK YAZAR
19 Mart 2026
Devam Et
Gazedda

© 2026 Gazedda - Copyleft

  • Künye
  • Dayanışma
  • İletişim
  • Gizlilik Politikası

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

Bulamadık
Tümünü Gör
  • ANA SAYFA
  • YAZARLAR
    • GAZEDDA YAZARLARI
    • GÜNEYDEN YAZARLAR
      • PENNA
    • DÜNYADAN YAZARLAR
      • PROJECT SYNDICATE
    • EDİTORYAL KOLEKTİF
  • SÖYLEŞİ
  • BELLEK & TARİH
    • YERİN HAFIZASI
  • TÜM İÇERİK
    • HABER ARŞİVİ
      • KIBRIS
      • DÜNYA
      • KORONAVİRÜS
    • MULTİMEDYA ARŞİVİ
      • GAZEDDAPOD
      • GAZEDDAWEBTV

© 2026 Gazedda - Copyleft

Web sitemizde size en iyi deneyimi sunabilmemiz için çerezleri kullanıyoruz. Bu siteyi kullanmaya devam ederseniz, bunu kabul ettiğinizi varsayarız. Gizlilik ve Çerezler Politikası sayfamızı ziyaret edin.