Yapay Zeka Firması Anthropic, Pentagon'a Karşı Duruyor: Etik Savaş mı, İş İhaneti mi?

Tanınmış bir yapay zeka şirketi olan Anthropic, chatbot Claude'un gözetleme ve ölümcül otonom silahlar için kullanılmasına izin vermemesi nedeniyle kendisini Pentagon'la yüksek profilli bir anlaşmazlığın içinde bulur. Tartışma yapay zekanın askeri uygulamalarına ilişkin endişeleri yeniden alevlendiriyor.
Antropik, kendisini yapay zeka teknolojisinin savaş ve gözetlemede kullanımına ilişkin hararetli bir tartışmanın merkezinde buldu. Şirketin, popüler sohbet robotu Claude'un Savunma Bakanlığı (DoD) tarafından yurt içi toplu gözetleme ve otonom silah sistemleri için kullanılmasına izin vermemesi, onu Pentagon ile çatışma rotasına soktu.
Bir zamanlar yapay zeka patlamasında nispeten sessiz bir oyuncu olan Anthropic artık kendisini ilgi odağı haline getirdi; CEO'su ve kurucu ortağı Dario Amodei kamuoyunun gözüne girdi. Değeri 350 milyar dolar gibi etkileyici bir değere sahip olan şirket, etik duruşunda kararlı davranarak Savunma Bakanlığı'nın anlaşma taleplerini reddetti ve hükümetle gergin bir anlaşmazlığa yol açtı.
Bu sorun, yapay zekanın savaştaki rolü ve yapay zekanın olası kötüye kullanımından kimin sorumlu tutulması gerektiği konusunda devam eden tartışmayı yeniden alevlendiriyor. Teknoloji hızla ilerledikçe, insan müdahalesi olmadan öldürme kararları verebilen otonom silah sistemlerinin geliştirilmesinin yanı sıra, yerel kitlesel izleme için yapay zeka destekli gözetleme araçlarının kullanılmasına ilişkin endişeler artıyor.
{{IMAGE_PLACEHOLDER}}Anthropic'in Pentagon'un taleplerini reddetme kararı hem övgü hem de eleştiriyle karşılandı. Bazıları bunu etik yapay zeka gelişimini savunmada ilkeli bir duruş olarak görürken, diğerleri şirketi


