揭秘五角大楼对 OpenAI 技术的秘密使用

独家报告揭示了国防部如何通过微软的产品测试该技术来规避 OpenAI 的军事应用禁令。
OpenAI 是开创性的 ChatGPT 人工智能助手的创建者,长期以来一直坚持禁止将其技术用于军事应用的政策。然而,新的报告表明,五角大楼可能已经通过微软的产品测试 OpenAI 的模型找到了绕过这一限制的方法。
据多个知情人士透露,在 ChatGPT 制造商正式解除军事用途禁令之前,国防部一直在试验微软版本的 OpenAI 技术,其中包括语言模型和其他人工智能功能。
这一披露引发了人们对五角大楼在多大程度上能够利用 OpenAI 的先进人工智能技术的质疑,即使面对该公司声明的道德问题和政策限制。这一发现可能会对人工智能的未来发展及其在国防和国家安全领域的应用产生深远的影响。
{{IMAGE_PLACEHOLDER}}涉嫌规避 OpenAI 政策的行为凸显了私营部门为人工智能开发制定道德准则的努力与政府利用这些强大技术用于军事和情报目的的愿望之间日益紧张的关系。随着人工智能领域的不断发展,这一事件凸显了科技行业和公共部门之间需要提高透明度、加强监督和合作,以确保这些技术得到负责任的部署并符合既定的道德原则。
OpenAI 和 Microsoft 的代表都拒绝对具体指控发表评论,但围绕人工智能在军事和国家安全领域的道德使用的更广泛的争论可能会在未来数月和数年加剧。随着这些技术的能力不断进步,创新、安全和社会价值之间的平衡仍将是政策制定者、行业领导者和公众面临的严峻挑战。
{{IMAGE_PLACEHOLDER}}五角大楼涉嫌通过微软的产品使用 OpenAI 技术的消息凸显了人工智能行业与政府机构关系的复杂性且往往不透明。由于公众和政策制定者要求更大的透明度和问责制,这一事件清楚地提醒我们需要强有力的道德框架和明确的指导方针,以确保这些强大技术的部署方式符合民主社会的价值观和原则。
展望未来,对于OpenAI、微软和其他领先的人工智能公司来说,与公众、政策制定者以及国防和情报界进行公开和诚实的对话至关重要,以建立对道德界限和负责任地使用这些变革性技术的共同理解。
来源: Wired


