Експерт зі штучного інтелекту попереджає про гонку озброєнь AGI на випробуванні OpenAI

Стюарт Рассел, відомий дослідник штучного інтелекту, свідчить на суді OpenAI про ризики конкуренції штучного інтелекту між урядами та лабораторіями.
Стюарт Рассел, один із найповажніших у світі дослідників штучного інтелекту, став критичною фігурою в поточному судовому процесі проти OpenAI. Відомий вчений-інформатик, який десятиліттями вивчав наслідки передових систем штучного інтелекту, виступив як свідок-експерт із протверезним повідомленням: глобальна конкуренція за розробку все більш потужних технологій штучного інтелекту може спровокувати небезпечну та дестабілізуючу гонку озброєнь, яка загрожує інтересам людей.
Участь Рассела в дослідженні є важливим моментом у триваючих дебатах про те, як суспільства мають регулювати передові лабораторії штучного інтелекту та їх змагання за більш ефективні системи. Його свідчення базуються на десятиліттях досліджень безпеки, етики та управління штучним інтелектом, що робить його унікальним кваліфікованим голосом щодо екзистенційних ризиків, пов’язаних із безконтрольною розробкою штучного інтелекту. Вчений-комп’ютерник постійно стверджував, що без належного нагляду та міжнародної співпраці прагнення до загального штучного інтелекту (AGI) може перерости в конкурентну динаміку, де кожен великий гравець — держава чи приватна компанія — буде змушений скоротити кути щодо заходів безпеки.
Протягом усієї своєї кар’єри Рассел активно заявляв про необхідність того, щоб уряди відігравали більш активну роль у контролі та керуванні розвитком передових технологій ШІ. Його наукова робота та публічні заяви підкреслюють, що ставки, пов’язані з розробкою AGI, надто високі, щоб покладатися лише на добровільні зобов’язання промисловості чи ринкові стимули. Натомість Рассел виступає за державне регулювання розвитку ШІ, подібно до того, як ядерні технології та інші потенційно небезпечні інновації регулювалися в минулому.
Концепція гонки озброєнь AGI, про яку попереджає Рассел, представляє особливий кошмарний сценарій для прихильників безпеки ШІ. У цьому сценарії країни та компанії стають настільки зосередженими на досягненні спроможності AGI спочатку, що вони віддають пріоритет дослідженням безпеки та механізмам нагляду. Кожен учасник боїться, що якщо він сповільниться, щоб застосувати надійні заходи безпеки, він відстане від конкурентів, які менш обережні. Це створює класику
Джерело: TechCrunch


