Крупные лаборатории искусственного интеллекта реагируют на утечку данных Mercor, раскрывающую отраслевые тайны

Ведущие компании, занимающиеся искусственным интеллектом, приостанавливают сотрудничество с поставщиком данных Mercor после того, как инцидент безопасности мог привести к утечке конфиденциальных данных о процессах обучения их моделей.
В связи с тревожным событием в индустрии искусственного интеллекта крупные лаборатории искусственного интеллекта приостановили сотрудничество с Mercor, ведущим поставщиком данных, после того, как нарушение безопасности в компании потенциально раскрыло ключевые подробности о том, как они обучают свои модели искусственного интеллекта.
Инцидент, расследование которого все еще ведется, мог поставить под угрозу конфиденциальную информацию о внутренней работе некоторых из самых передовых в мире систем искусственного интеллекта. Данные такого типа тщательно охраняются ведущими исследовательскими лабораториями искусственного интеллекта, поскольку они представляют собой ценную интеллектуальную собственность и основу их конкурентного преимущества.
«Мы очень серьезно относимся к безопасности и конфиденциальности наших данных», — заявил представитель одной из пострадавших компаний, занимающихся искусственным интеллектом. «Как только нам стало известно об инциденте в Mercor, мы немедленно приостановили сотрудничество с ними, пока изучаем степень потенциального риска».
Mercor – крупный поставщик наборов данных, используемых для обучения и тестирования алгоритмов искусственного интеллекта. Многие из ведущих исследовательских лабораторий в области искусственного интеллекта, в том числе OpenAI, DeepMind и Google AI, используют услуги Mercor для доступа к крупномасштабным наборам данных, охватывающим широкий спектр областей.
Это нарушение является серьезным ударом для индустрии искусственного интеллекта, которая сталкивается с растущими опасениями по поводу последствий для безопасности и конфиденциальности своих быстро развивающихся технологий. Раскрытие конфиденциальной информации об обучении моделей может дать злоумышленникам ценную информацию о сильных и слабых сторонах различных систем ИИ, что потенциально позволит им разрабатывать контрмеры или использовать уязвимости.
"Этот инцидент подчеркивает острую необходимость того, чтобы сообщество искусственного интеллекта уделяло приоритетное внимание надежным мерам кибербезопасности и тщательно проверяло методы обеспечения безопасности своих поставщиков данных", - сказал д-р. Эмили Бенсон, ведущий эксперт в области безопасности и защиты ИИ. «Ставки слишком высоки, чтобы позволить конфиденциальным отраслевым секретам попасть в чужие руки».
По мере того как расследование взлома Mercor продолжается, индустрия искусственного интеллекта готовится к возможным последствиям. Некоторые эксперты предупреждают, что инцидент может подорвать доверие к более широкой экосистеме искусственного интеллекта и привести к усилению контроля со стороны регулирующих органов, поскольку политики и общественность борются с рисками, создаваемыми этими мощными технологиями.
«Это тревожный сигнал для индустрии искусственного интеллекта», — сказал д-р. Лиам Таггерт, профессор информатики Калифорнийского университета в Беркли. «Нам необходимо внимательно изучить наши методы обеспечения безопасности и найти способы лучше защитить конфиденциальную информацию, лежащую в основе нашей работы. От этого зависит будущее искусственного интеллекта».
Источник: Wired


