有争议的人工智能技术:美国军方对 Anthropic 克劳德的依赖引发争论

美国军方在地缘政治紧张局势中继续使用 Anthropic 的 Claude AI 模型来制定目标决策,引发了担忧,并导致一些国防技术客户与他们保持距离。
美国军方持续依赖 Anthropic 的 Claude 人工智能模型来进行关键目标决策,这已成为国防工业内争议和争论的根源。随着美国继续对伊朗进行空中攻击,在这些敏感行动中使用克劳德引起了人们的关注,并促使一些国防技术客户与人工智能平台保持距离。
Anthropic 是一家著名的人工智能研发公司,一直处于人工智能革命的前沿,Claude 是其旗舰产品之一。该模型能够进行自然语言处理和生成,已在包括国防部门在内的广泛行业中得到应用。然而,在地缘政治紧张局势加剧的情况下,军方继续使用克劳德来做出目标决策,引起了一些国防技术客户的担忧,他们现在正在重新评估与人工智能平台的关系。
{{IMAGE_PLACEHOLDER}}来源: TechCrunch


