Amerika Birleşik Devletleri Savunma Bakanlığı (Pentagon), OpenAI, Google, xAI ve Anthropic gibi önde gelen yapay zekâ şirketlerine, geliştirdikleri araçları Amerikan ordusunun “tüm yasal amaçlarla” kullanabilmesinin önünü açma talebinde bulunuyor. Bu istek, belge analizi, istihbarat, savaş planlama, silah geliştirme ve sahada gerçek zamanlı görev desteklerini kapsıyor. Ancak Anthropic, özellikle tam otonom silahlar ve kitlesel gözetim gibi alanlarda kullanımına karşı çıkıyor ve bu ilkelere bağlı kalıyor. Pentagon’un Claude modelini Palantir üzerinden Venezuela operasyonunda kullandığı iddiaları ortaya atıldı ve Claude’un gerçek zamanlı verilerin işlenmesi ve istihbarat analizinde rol alabileceği öne sürüldü. Ancak Anthropic, bu iddiaları reddediyor ve Pentagon ile Claude’un kullanımı hakkında resmi bir görüşmenin olmadığını belirtiyor. Pentagon’un geniş kullanım talebine direnen Anthropic, sözleşmeyi sonlandırma tehdidi altında. Bu durum, savunma ve etik ilkeler arasında yapay zekanın nasıl kullanılacağı konusunda daha geniş bir tartışmayı beraberinde getiriyor. Uzmanlara göre, Pentagon’un talebi ile Anthropic’in sınırları arasındaki bu çatışma, etik ilkeler ile askeri operasyon gereksinimleri arasındaki bir çatışmanın örneğidir ve yapay zekâ ile askeri entegrasyonun geleceğini şekillendirebilir.
Pentagon ile Anthropic arasında ilişkiler geriliyor