Пользователи ChatGPT получили сообщения о жестоком обращении и подняли тревогу на несколько месяцев раньше

Сотрудники OpenAI сообщили о жестоких разговорах с ChatGPT из шутера в Тамблер-Ридж за несколько месяцев до того, как произошел трагический инцидент.
За несколько месяцев до разрушительной массовой стрельбы в средней школе Тамблер-Ридж в Британской Колумбии в цифровых коридорах OpenAI уже появились предупреждающие знаки. Джесси Ван Рутселаар, ответственный за трагические события, вел с ChatGPT очень тревожные разговоры, в которых содержались явные описания насилия с применением огнестрельного оружия и агрессивных сценариев. Эти взаимодействия были достаточно значительными, чтобы активировать автоматические протоколы безопасности системы искусственного интеллекта, что вызвало тревожные сигналы во всей организации.
Судя по всему, эти разговоры произошли в июне, за несколько месяцев до фактического инцидента со стрельбой. Подробные описания насильственных сценариев, сделанные Ван Рутселааром, были настолько тревожными, что активировали встроенные системы модерации контента ChatGPT, предназначенные для выявления потенциально опасных сообщений. Эти автоматизированные средства защиты представляют собой важнейшую линию защиты в области безопасности ИИ, запрограммированные на обнаружение языковых шаблонов, которые могут указывать на реальные угрозы или вредоносные намерения.
Множество сотрудников OpenAI, просматривавших помеченный контент, все больше беспокоились о характере и специфике запросов Ван Рутселаара. Разговоры вышли за рамки обычного любопытства по поводу насилия, вместо этого они углубились в детальное планирование и построение сценариев, которые сотрудники интерпретировали как потенциально подготовительное поведение. Сотрудники, столкнувшиеся с этими сообщениями, осознавали серьезность содержания и понимали потенциальные последствия для общественной безопасности.
Некоторые обеспокоенные сотрудники взяли на себя инициативу передать свои опасения выше по корпоративной иерархии, активно выступая за немедленное вмешательство. Они рекомендовали руководству OpenAI связаться с правоохранительными органами, чтобы сообщить о подозрительной деятельности и, возможно, предотвратить трагический исход. Эти сотрудники продемонстрировали четкое осознание своей ответственности за действия, когда им была предоставлена информация, которая могла указывать на непосредственную угрозу общественной безопасности.

Однако, несмотря на серьезные Из-за обеспокоенности, высказанной несколькими сотрудниками, исполнительное руководство OpenAI в конечном итоге решило не обращаться в органы власти. Согласно подробному сообщению Wall Street Journal, руководители компании пришли к выводу, что сообщения Ван Рутселаара не соответствуют порогу, позволяющему представлять «правдоподобный и неизбежный риск серьезного физического вреда другим людям». Позднее это решение имело разрушительные последствия для сообщества Tumbler Ridge.
Внутренние дебаты в OpenAI подчеркивают сложные проблемы, с которыми компании, занимающиеся искусственным интеллектом, сталкиваются при балансировании конфиденциальности пользователей, соображений свободы слова и проблем общественной безопасности. Технологические компании, эксплуатирующие крупномасштабные системы искусственного интеллекта, регулярно сталкиваются с контентом, который поднимает вопросы этики и безопасности, требуя от них принятия сложных суждений о том, когда цифровое поведение может привести к реальному вреду. Эти решения часто включают в себя сопоставление неполной информации с потенциальными последствиями как действий, так и бездействия.
Случай со стрельбой в Тамблер-Ридж поднимает серьезные вопросы об ответственности компаний, занимающихся искусственным интеллектом, за принятие мер в отношении поведения пользователей, обнаруженного их системами. Хотя такие компании, как OpenAI, внедрили сложные системы модерации контента, предназначенные для выявления потенциально вредоносных сообщений, эффективность этих мер защиты в конечном итоге зависит от человеческого суждения и готовности учреждений принять решительные меры при появлении предупреждений.
Эксперты отрасли уже давно обсуждают соответствующие протоколы для обработки угрожающего контента, обнаруженного в результате взаимодействия с искусственным интеллектом. Некоторые утверждают, что у компаний есть моральное и потенциально юридическое обязательство сообщать властям о реальных угрозах, в то время как другие утверждают, что слишком широкие требования к отчетности могут подорвать доверие пользователей и оказать сдерживающее воздействие на законные исследования и творческое самовыражение. Баланс между этими конкурирующими интересами остается спорным вопросом в быстро развивающейся области безопасности ИИ.

Трагический исход в средней школе Тамблер-Ридж усилил пристальное внимание к процессу принятия решений OpenAI и поднял более широкие вопросы об отраслевых стандартах оценки угроз. Критики утверждают, что руководство компании не выполнило свой долг по защите общественной безопасности, не действуя в соответствии с четкими предупреждающими знаками, которые были выявлены их собственными сотрудниками и системами. Это дело стало центром дискуссий о корпоративной ответственности в эпоху искусственного интеллекта.
После стрельбы сторонники безопасности ИИ призвали к созданию более надежных протоколов и более четких рекомендаций по работе с потенциально опасным контентом, обнаруженным в результате взаимодействия ИИ. Они утверждают, что компании, разрабатывающие мощные системы искусственного интеллекта, несут особую ответственность перед обществом, учитывая уникальную информацию, которую они получают о поведении и намерениях пользователей через свои платформы. Эти защитники подчеркивают, что с большой технологической мощью приходит в равной степени и большая ответственность действовать в общественных интересах.
Этот инцидент также побудил к новому пересмотру существующих правовых рамок, регулирующих ответственность технологических компаний, когда они сталкиваются с доказательствами потенциальной преступной деятельности. Действующие законы предоставляют ограниченные указания в отношении обязательств компаний, занимающихся искусственным интеллектом, сообщать о подозрительном поведении, создавая нормативную серую зону, которая может потребовать законодательных разъяснений для предотвращения подобных трагедий в будущем.
Рассмотрение OpenAI дела Ван Рутселаара может послужить прецедентом для того, как другие компании, занимающиеся искусственным интеллектом, будут подходить к аналогичным ситуациям в будущем. Технологическая индустрия внимательно следит за развитием событий, поскольку это может повлиять на разработку отраслевых стандартов и лучших практик для протоколов оценки угроз и отчетности. Результат может также повлиять на нормативные дискуссии об обязательных требованиях к отчетности для компаний, занимающихся искусственным интеллектом.
Более широкие последствия этого дела выходят за рамки OpenAI и охватывают всю индустрию искусственного интеллекта. По мере того, как системы искусственного интеллекта становятся все более сложными и широко распространенными, они неизбежно сталкиваются с большим количеством пользователей, которые могут вынашивать опасные намерения. Задача компаний заключается в разработке эффективных систем выявления подлинных угроз, избегая при этом ложных срабатываний, которые могут привести к ненужному вмешательству правоохранительных органов или нарушению прав пользователей на конфиденциальность.
В дальнейшем трагедия в Тамблер-Ридже служит суровым напоминанием о реальных последствиях, которые могут возникнуть в результате решений, принятых в корпоративных залах заседаний относительно цифрового контента. Этот случай подчеркивает исключительную важность наличия четких, четко определенных протоколов для эскалации вопросов, касающихся поведения пользователей, а также необходимость того, чтобы компании, занимающиеся искусственным интеллектом, отдавали приоритет общественной безопасности над другими бизнес-соображениями, когда через их платформы возникают настоящие угрозы.
Источник: The Verge


