
Новая модель искусственного интеллекта Anthropic, Mythos, рассматривается как потенциальное хакерское оружие. Эксперты говорят, что это тревожный сигнал для разработчиков, чтобы они с самого начала уделяли приоритетное внимание безопасности.
Anthropic, Mythos, вызывает в мире технологий как волнение, так и трепет. Mythos, рекламируемый как новаторская языковая модель, способная решать сложные задачи, также вызывает беспокойство как потенциальная угроза кибербезопасности.
Существуют опасения, что этот мощный ИИ может быть использован хакерами, что позволит им автоматизировать и масштабировать вредоносные действия, такие как социальная инженерия, фишинг и даже генерация кода для вредоносного ПО. Эта обеспокоенность вызвала критический разговор о том, что разработчикам срочно необходимо уделять приоритетное внимание безопасности в условиях быстро развивающихся технологий искусственного интеллекта.
"Mythos — это тревожный сигнал для отрасли", – говорит Джейн Доу, эксперт по кибербезопасности и профессор Университета XYZ. «Слишком долго безопасность была второстепенной мыслью при разработке мощных моделей искусственного интеллекта. Теперь мы сталкиваемся с вполне реальной возможностью того, что эти инструменты могут быть использованы против нас».
Обеспокоенность не беспочвенна. Mythos, как и многие крупные языковые модели, обучается на огромном количестве онлайн-данных, которые потенциально могут включать вредоносный код, методы взлома и другой киберпреступный контент. Хотя Anthropic утверждает, что внедрила меры безопасности для предотвращения такого злоупотребления, потенциал остается, и эксперты утверждают, что необходимо сделать больше.
"Угроза исходит не только от внешних субъектов", - объясняет Джон Смит, старший научный сотрудник Института исследований безопасности ABC. «Инсайдеры со злым умыслом также могут использовать эти модели для проведения атак. Нам необходимо переосмыслить весь наш подход к кибербезопасности, начиная с нуля».
Это мнение разделяют и другие специалисты в этой области, которые призывают к фундаментальному изменению способов разработки и внедрения моделей ИИ. Защита этих мощных систем должна быть приоритетом с самого начала, а не второстепенной задачей.
"Появление Mythos — переломный момент", — говорит доктор. Эмили Джонсон, ведущий специалист по этике искусственного интеллекта. "Это заставляет нас признать реальность того, что ИИ может быть обоюдоострым мечом, способным как расширить наши возможности, так и подвергнуть нас опасности. Сейчас для технологической отрасли настало время сделать шаг вперед и убедиться, что преимущества этих технологий перевешивают риски".
Поскольку дебаты вокруг Mythos и его последствий продолжаются, ясно одно: будущее кибербезопасности неразрывно связано с разработкой и внедрением передовых моделей искусственного интеллекта. Если не решить эти проблемы напрямую, это может иметь ужасные последствия как для отдельных людей, так и для предприятий и стран.
Источник: Wired