Hayır, Anthropic yapay zekanın “iyi çocuğu” değil… Diğerleri gibi!

Pentagon’un Anthropic’e verdiği ültimatomun gölgesinde başlayan tartışmalar yapay zeka şirketlerinin askeri kullanım konusundaki gerçek pozisyonlarını yeniden gündeme taşıdı. ABD Savunma Bakanlığı’nın talebi oldukça net. Şirketler, ABD ordusuna kitlesel gözetim ve tam otonom ölümcül silah sistemleri dahil olmak üzere teknolojilerinin “yasal olan her amaç için” kullanılmasına izin vermeli. Aksi halde “ulusal güvenlik açısından tedarik zinciri riski” olarak damgalanma ihtimalini göze almalılar. Bu etiket, yüz milyarlarca dolarlık kamu sözleşmelerinden dışlanmak anlamına gelebilir. Anthropic, bir süre önce ABD’ye boyun eğmedi ve tedarik zinciri riski damgasını yedi. Ama bu, Anthropic’i yapay zekanın iyi çocuğu yapmıyor.

Anthropic CEO’su Dario Amodei, kamuoyuna yaptığı açıklamada Pentagon’un tehditlerinin şirketin pozisyonunu değiştirmeyeceğini söyledi. Ancak bu çıkış, şirketi otomatik olarak “iyi taraf” yapmıyor. Amodei, ölümcül otonom silahlara ilkesel olarak karşı olmadığını, yalnızca bugünkü teknolojinin yeterince güvenilir olmadığını savundu. Yani teknoloji yeterli olduğunda “ABD dışındaki insanları” gözetlemek ve teknolojisinin otonom silah haline gelmesinde bir sorun görmüyor. Hatta bu sistemlerin güvenilirliğini artırmak için Savunma Bakanlığı ile Ar-Ge ortaklığı bile önerdi. En azından Anthropic, ABD hariç 194 ülkede OpenAI veya diğer şirketlerden farklı olarak algılanmamalı bu konuda.

Kırmızı çizgiler gerçekten nerede başlıyor?

ABD Savunma Bakanlığı haftalar boyunca Anthropic’in güvenlik bariyerlerini gevşetmesini talep ederken sektördeki diğer oyuncuların tutumu da sorgulandı. OpenAI ve Elon Musk’ın kurduğu xAI, halihazırda benzer şartları kabul etmiş durumda. Anthropic’in devreden çıkmasının hemen ardından Pentagon ile sözleşme imzalayan OpenAI ise X hesabından şunları söyledi:

“ABD Savaş Bakanlığı ile yaptığımız anlaşma, belirlediğimiz kırmızı çizgileri koruyor:

  • Kitlesel iç gözetim için OpenAI teknolojisinin kullanılması yasaktır.
  • Otonom silah sistemlerini yönlendirmek için OpenAI teknolojisi kullanılmayacak.
  • Yüksek riskli otomatik kararlar için OpenAI teknolojisi kullanılmayacak (örneğin “sosyal kredi” gibi sistemler).”

Ancak OpenAI, sitesindeki metinde açıkça şunu söylüyor: “Savaş Bakanlığı, hukuka uygun amaçlar, operasyonel gereklilikler ve yerleşik güvenlik ve denetim protokolleri ile uyumlu olarak, tüm yasal amaçlar için AI Sistemini kullanabilir.”

Öncelikle “lawful purposes” yani “hukuka uygun amaçlar” ifadesi oldukça geniş bir çerçeve sunuyor. Hukuka uygunluk tanımı mevcut yasalarla sınırlı ve yasalar değiştirilebilir. Özellikle ABD savunma mevzuatı ve ulusal güvenlik istisnaları düşünüldüğünde, bu ifade teknolojinin kullanım alanını ciddi biçimde genişletebilecek bir esneklik içeriyor. Aynı metinde ayrıca “otonom silahları bağımsız şekilde yönlendirmeyecek” ifadesi dikkat çekiyor. Bu, sistemin doğrudan tetik çekmeyeceği anlamına geliyor. Ancak hedef analizi, tehdit sınıflandırması veya operasyonel öneri üretimi gibi karar öncesi kritik aşamalarda rol almasının önü kapatılmış değil. Üçüncü olarak, “yüksek riskli otomatik kararlar” ifadesi yalnızca insan onayı gerektiren durumlarla sınırlandırılmış. Eğer mevzuat bir alanda insan onayı zorunluluğu getirmiyorsa, teorik olarak sistem daha geniş karar destek rollerinde kullanılabilir. “Sosyal kredi sistemi” gibi örnekler özellikle zikredilmiş olsa da, daha gri alanlara ilişkin net bir sınır çizilmiyor.

Dolayısıyla OpenAI, yaptığı açıklamasında güçlü prensipler ve yasal atıflar yapıyor olsa da profesyonel olmayan bir göz bile metinde açıkların olduğunu net bir şekilde görebiliyor.

Üstelik Sam Altman yönetimindeki OpenAI, sözleşmelerde “kırmızı çizgileri” korumaya çalıştığını söylese de 2024 yılında hizmet şartlarından “askeri ve savaş” kullanımına yönelik yasağı kaldırmıştı. Sonrasında şirket, otonom silah üreticisi Anduril ile iş birliği yaptı ve Pentagon’la anlaşma imzaladı.

Anthropic de bu hafta, uzun süredir savunduğu “sorumlu ölçekleme” politikasında değişikliğe giderek güvenlik taahhütlerini esnetti. Amaç, hızlanan yapay zeka yarışında geri kalmamak. Bu tablo, etik ilkelerin çoğu zaman ticari rekabetle birlikte yeniden tanımlandığını ortaya koyuyor.

2024 yılında Anthropic, Palantir ve Amazon Web Services (AWS) ile bir ortaklık kurarak ABD istihbarat ve savunma kurumlarına Claude yapay zeka modellerini sunma kararı almıştı. Claude böylece Pentagon’un “Impact Level 6” (IL6) denilen, en üst düzey “Gizli” (Secret) sınıfındaki verilerinin işlendiği ağlara giren ilk ve tek öncü yapay zeka modeli olmuştu. Yani Anthropic, Amerikan ordusunun en mahrem verilerini analiz etmek için gönüllü olarak masaya oturdu.

Anthropic, zaten Claude’un füze savunma sistemlerinde ve siber savunmada kullanılmasına halihazırda onay vermiş durumdaydı. Claude, karmaşık savaş alanı verilerini tarayarak komutanlara “karar desteği” sunmak için kullanılıyordu. Anthropic’in itirazı yapay zekanın savaşta kullanılmasına değil, sadece “tetiği çekenin insan olmaması” ve “Amerikan vatandaşlarının izlenmesi” şartınaydı. Yani yabancı bir ordunun askerlerini hedef alan bir operasyonda Claude’un lojistik veya stratejik destek vermesine şirket hiçbir zaman karşı çıkmadı.

Büyük oyuncular zaten olaya dahil

Amazon, Google ve Microsoft gibi devler de savunma ve istihbarat kurumlarına yapay zekâ hizmetleri sunuyor. 2018’de Google çalışanlarının Pentagon’la yürütülen “Project Maven” ortaklığına karşı başlattığı protesto, şirketi geri adım atmaya zorlamıştı. Ancak bugün tablo farklı. Çalışanlara göre sektörde korku ve sessizlik hakim.

Microsoft cephesinde de benzer eleştiriler var. Şirket, İsrail Savunma Kuvvetleri ile yürüttüğü iş birlikleri nedeniyle çalışan protestolarıyla karşılaşmıştı. Zira şirketin teknolojileri, Filistinlileri ve muhalifleri kitlesel olarak gözetlemekte kullanılıyordu. Tepkiler sonrasında ortaklıkların bazı kısımlarının sonlandırıldığı açıklanmıştı. Ayrıca şirketin bir “Sorumlu Yapay Zeka” taahhüdü de var ancak şirket çalışanlarına göre bu konuda anlamlı bir taahhütte bulunmak yerine, kâr elde etmek öncelikli durumda.

Eski bir xAI çalışanına göre ise sektördeki herkes zaten katil robotlar üzerinde çalışıyor. Hükümetle çalışmayan şirketler “ülkenin çıkarlarına karşı” konumlanmış gibi algılanıyor. Savunma projelerinde yer almak, artık bazı çevrelerde “vatanseverlik” göstergesi olarak sunuluyor.

Bu atmosferde Anthropic’in görece “dik” duruşu önemli ama bunun sürdürülebilirliği ne kadar mümkün belirsiz. ABD’de “tedarik zinciri riski” ilan edilmek Savunma Bakanlığı ile çalışan tüm tedarikçi ve yüklenicilerin sizinle çalışmadıklarını belgelemelerini zorunlu kılıyor. Mevcut konjonktürde Anthropic’in bu damga ile hayatta kalması zor.

Sorun tek bir şirket değil

Teknoloji çalışanları ise şirketlerin Pentagon’un taleplerine karşı ortak duruş sergilemesini istiyor. 700 bini aşkın çalışanı temsil eden gruplar, askeri yapay zekada kırmızı çizgilerin netleştirilmesini talep ediyor. Özellikle iki konu öne çıkıyor: Amerikalılara yönelik kitlesel gözetim yapılmaması ve insan denetimi olmadan ölümcül güç kullanılmaması. Ayrıca Google ve OpenAI çalışanları, şirketlerini Pentagon’un taleplerini reddetmeye çağırdı.

Tabi bu çizgilerin kalıcı mı, yoksa yalnızca pazarlık unsuru olarak mı kullanıldığı belirsiz. Bir Microsoft çalışanına göre ABD Savunma Bakanlığı ile kapıdan içeri girdikten sonra etik denetimi sürdürmek son derece zor. Yüksek bütçeli sözleşmeler, şirketlere en kârlı seçeneği meşrulaştırma baskısı yaratıyor.

Sonuçta mesele yalnızca Anthropic değil. OpenAI, Google, Amazon, Microsoft ya da xAI… Büyük teknoloji şirketlerinin tamamı, askeri ve güvenlik projeleriyle iç içe geçmiş durumda. Sınırlar yıllardır bulanık. Bugün yalnızca daha görünür hale gelmiş durumda.

Author: admin