ABD savunma sanayinde yapay zeka krizi derinleşiyor. Pentagon’un, teknoloji girişimi Anthropic ile yaşadığı “kullanım şartları” anlaşmazlığının ardından gözler OpenAI’a çevrildi. İddialara göre Sam Altman, Anthropic’in boşaltmak üzere olduğu koltuğa oturmak için gizli görüşmeler yürütüyor.
Sam Altman’dan Çalışanlara Kritik Not: “Demokrasiye Bağlıyız”
Wall Street Journal (WSJ) tarafından görüntülenen şirket içi notta, OpenAI CEO’su Sam Altman’ın stratejik bir hamle hazırlığında olduğu görülüyor. Altman, modellerin “gizli ortamlarda” kullanılmasına yeşil ışık yakarken kırmızı çizgilerini de net bir şekilde çizdi:
-
Otonom Silahlara Hayır: Anlaşmanın, otonom saldırı silahları gibi insan kontrolü dışındaki kullanımları kapsamayacağı vurgulandı.
-
Hükümet Gücü: Altman, hiçbir özel şirketin demokratik yollarla seçilmiş ABD hükümetinden daha güçlü olmaması gerektiğini savunarak Pentagon’a zeytin dalı uzattı.
Anthropic Neden Hedefte? Pentagon’dan “Sözleşme İptali” Tehdidi
Krizin merkezinde, Anthropic’in geliştirdiği yapay zeka modeli Claude bulunuyor. ABD ordusu; istihbarat, silah geliştirme ve operasyon yönetimi süreçlerinde Claude’u kullanıyordu. Ancak şirket, modelin “tüm yasal askeri amaçlar” için sınırsız kullanımına güvenlik ve etik gerekçelerle izin vermedi.
Süre Doldu: ABD Savunma Bakanı Pete Hegseth, Anthropic’e 27 Şubat’a (bugün) kadar süre tanımış ve talepler karşılanmazsa tüm hükümet sözleşmelerinin iptal edileceği uyarısında bulunmuştu.
Yapay Zekada Kontrol Kimin Elinde Olacak?
Altman’a göre bu tartışma sadece yapay zekanın etik sınırlarıyla ilgili değil, tamamen “kontrol” mekanizmasıyla ilgili. Bazı askeri yetkililer, Pentagon’un taleplerine direnç gösteren şirketleri “tedarik zinciri riski” olarak tanımlarken, hükümetin özel sektörü bypass edecek yeni yasalar çıkarabileceği de konuşuluyor.




