Önde gelen yapay zeka geliştiricileri OpenAI ve Anthropic, yazılımlarını ABD ordusuna satarken hassas bir denge kurmaya çalışıyor: Pentagon’u daha verimli hale getirmek, ancak yapay zekanın insanları öldürmesine izin vermemek.
Şu anda, bu araçlar doğrudan bir silah olarak kullanılmıyor, ancak yapay zeka, Savunma Bakanlığı’na (DoD) tehditleri tanımlama, izleme ve değerlendirme konusunda “önemli bir avantaj” sağlıyor. Pentagon’un Dijital ve Yapay Zeka Direktörü Dr. Radha Plumb, TechCrunch’a yaptığı telefon röportajında bu durumu doğruladı.
“Açıkça söylemek gerekirse, öldürme zincirinin uygulanmasını hızlandırarak, komutanlarımızın birliklerimizi korumak için doğru zamanda yanıt verebilmelerini sağlıyoruz,” dedi Plumb.
“Öldürme zinciri”, askeri süreçlerde tehditleri tanımlama, izleme ve ortadan kaldırma aşamalarını içeren, sensörler, platformlar ve silah sistemlerinden oluşan karmaşık bir yapıdır. Plumb’a göre, üretken yapay zeka, bu zincirin planlama ve strateji geliştirme aşamalarında büyük fayda sağlıyor.
Pentagon ve yapay zeka geliştiricileri arasındaki ilişki nispeten yeni. OpenAI, Anthropic ve Meta, 2024 yılında kullanım politikalarını değiştirerek ABD istihbarat ve savunma kurumlarının yapay zeka sistemlerini kullanmalarına izin verdi. Ancak bu şirketler, yapay zekanın insanlara zarar vermesine kesinlikle izin vermiyor.
Pentagon’un yapay zeka sağlayıcılarıyla nasıl çalıştığı sorulduğunda Plumb, “Teknolojilerini ne amaçla kullanıp kullanmayacağımız konusunda çok netiz” dedi.
Bununla birlikte, bu durum yapay zeka şirketleri ve savunma yüklenicileri arasında bir hızlı iş görüşmesi sürecini başlattı ve sektör oyuncuları Pentagon’la çalışmak için sıraya girdi.