AI Startup, 'Claude' Aracının Askeri Kullanımı Konusunda Antropik Savaşlar

Anthropic, yapay zeka asistanı 'Claude'u ABD ordusuna tedarik etme konusundaki çelişkili mahkeme kararlarıyla mücadele ediyor ve teknoloji şirketlerinin ulusal savunmadaki rolüne ilişkin tartışmalara yol açıyor.
Devam eden bir hukuk mücadelesinde Yapay zeka şirketi Anthropic, Yapay zeka asistanı 'Claude'un ABD ordusu tarafından nasıl kullanılabileceğine ilişkin kısıtlamalar konusunda çelişkili mahkeme kararlarıyla karşı karşıya. ABD Temyiz Mahkemesi, Anthropic'in yazılımı üzerinde bir tedarik zinciri risk etiketi bulundurmaya yönelik önceki bir kararı onadı; bu, ordunun teknolojiyi kullanma yeteneğini sınırlayan bir harekettir.
Tedarik zinciri risk etiketi ilk olarak ABD Savunma Bakanlığı tarafından ulusal güvenlik kaygıları nedeniyle uygulanmıştı. Anthropic, ordunun yapay zeka teknolojisine erişimini adil olmayan bir şekilde kısıtladığını öne sürerek etiketin kaldırılması için mücadele ediyor. Şirket, etiketin devletle iş yapma olanağını engelleyebileceğini ve teknolojik yenilikleri engelleyebileceğini iddia ediyor.
Ancak Temyiz Mahkemesi, tedarik zinciri risk etiketinin ulusal güvenlik çıkarlarını korumak için makul bir önlem olduğunu belirterek önceki kararın yanında yer aldı. Mahkeme, bu etiketin ordunun Claude'u kullanmasını tamamen yasaklamadığını, bunun yerine konuşlandırılmasına ek denetim ve kısıtlamalar getirdiğini belirtti.
{{IMAGE_PLACEHOLDER}}Kaynak: Wired


