Спорная технология искусственного интеллекта: военные США полагаются на дебаты Клода Спаркса из Anthropic

Продолжающееся использование американскими военными модели Claude AI от Anthropic для принятия решений в условиях геополитической напряженности вызвало обеспокоенность и заставило некоторых клиентов оборонных технологий дистанцироваться.
Постоянная зависимость вооруженных сил США от модели искусственного интеллекта Claude компании Anthropic для принятия важных решений по выбору цели стала источником споров и дискуссий в оборонной промышленности. Поскольку США продолжают воздушное нападение на Иран, использование Клода в этих секретных операциях вызвало удивление и побудило некоторых клиентов оборонных технологий дистанцироваться от платформы ИИ.
Anthropic, известная компания, занимающаяся исследованиями и разработками в области искусственного интеллекта, находится в авангарде революции ИИ, а Claude является одним из ее флагманских продуктов. Модель, способная обрабатывать и генерировать естественный язык, нашла применение в широком спектре отраслей, включая оборонный сектор. Однако продолжающееся использование военными Claude для принятия решений в условиях повышенной геополитической напряженности вызвало обеспокоенность у некоторых клиентов оборонных технологий, которые сейчас пересматривают свои отношения с платформой ИИ.
{{IMAGE_PLACEHOLDER}}Источник: TechCrunch


