Спорная антропогенная сделка с Пентагоном провалилась: поучительная история для стартапов

Неудавшийся контракт Anthropic с Пентагоном на 200 миллионов долларов подчеркивает проблемы, с которыми сталкиваются стартапы в области ИИ в федеральном партнерстве, а также этические проблемы в отношении военного ИИ.
При драматическом повороте событий Пентагон официально признал Anthropic риском для цепочки поставок после того, как обе стороны не смогли достичь соглашения об уровне контроля, который военные должны иметь над моделями искусственного интеллекта Anthropic, включая их потенциальное использование в автономном оружии и массовом внутреннем наблюдении. Когда контракт Anthropic на 200 миллионов долларов развалился, Министерство обороны (DoD) вместо этого быстро обратилось к OpenAI, которая приняла сделку, а затем наблюдала, как количество удалений ChatGPT выросло на ошеломляющие 295%.
Крах партнерства Anthropic и Пентагона служит предостережением для стартапов в области искусственного интеллекта, плавающих в коварных водах федеральных контрактов, где этические соображения и контроль над чувствительными технологиями могут решить или разрушить сделку. Поскольку ставки в гонке за использование возможностей искусственного интеллекта продолжают расти, остается вопрос: какой неограниченный доступ должны иметь военные к этим преобразующим технологиям?
{{IMAGE_PLACEHOLDER}}Источник: TechCrunch


