Эксперт по искусственному интеллекту предупреждает о гонке вооружений в области искусственного интеллекта на испытании OpenAI

Стюарт Рассел, известный исследователь искусственного интеллекта, свидетельствует на суде OpenAI о рисках конкуренции в области искусственного интеллекта между правительствами и лабораториями.
Стюарт Рассел, один из самых уважаемых в мире специалистов в области исследований искусственного интеллекта, стал важной фигурой в продолжающемся судебном разбирательстве против OpenAI. Известный ученый-компьютерщик, десятилетиями изучавший возможности передовых систем искусственного интеллекта, выступил в качестве свидетеля-эксперта с отрезвляющим посланием: глобальная конкуренция за разработку все более мощных технологий искусственного интеллекта может спровоцировать опасную и дестабилизирующую гонку вооружений, которая угрожает интересам человечества.
Участие Рассела в испытании представляет собой важный момент в продолжающихся дебатах о том, как общества должны регулировать передовые лаборатории искусственного интеллекта и их гонку в поисках более эффективных систем. Его показания основаны на десятилетиях исследований в области безопасности, этики и управления ИИ, что делает его уникальным авторитетным голосом в отношении экзистенциальных рисков, связанных с неконтролируемым развитием ИИ. Ученый-компьютерщик постоянно утверждает, что без надлежащего надзора и международного сотрудничества развитие искусственного общего интеллекта (AGI) может перерасти в конкурентную динамику, в которой каждый крупный игрок – будь то правительство или частная компания – будет чувствовать себя вынужденным снижать меры безопасности.
На протяжении всей своей карьеры Рассел неоднократно заявлял о необходимости того, чтобы правительства играли более активную роль в контроле и направлении развития передовых технологий искусственного интеллекта. Его научная работа и публичные заявления подчеркивают, что ставки, связанные с развитием ОИИ, слишком высоки, чтобы полагаться исключительно на добровольные обязательства отрасли или рыночные стимулы. Вместо этого Рассел выступает за государственное регулирование развития ИИ, аналогично тому, как в прошлом регулировались ядерные технологии и другие потенциально опасные инновации.
Концепция гонки вооружений в области искусственного интеллекта, о которой предупреждает Рассел, представляет собой особый кошмарный сценарий для сторонников безопасности ИИ. В этом сценарии страны и компании настолько сосредотачиваются на достижении потенциала AGI, что теряют приоритетность исследований в области безопасности и механизмов надзора. Каждый участник опасается, что, если он замедлит внедрение надежных мер безопасности, он отстанет от менее осторожных соперников. Это создает классику
Источник: TechCrunch


