OpenAI зміщує фокус: програму Sora AI Video припинено через занепокоєння Deepfake

OpenAI, творець ChatGPT, прийняв стратегічне рішення припинити свій відеододаток Sora для штучного інтелекту на тлі зростаючого занепокоєння з приводу зростання кількості підроблених відео.
OpenAI, компанія, яка розробила новаторську мовну модель ChatGPT, зробила значний крок у своїй бізнес-стратегії, припинивши випуск свого відеододатку AI Sora. Це рішення прийнято на тлі зростання занепокоєння щодо можливого зловживання технологією deepfake та її впливу на поширення дезінформації.
Програма Sora, яка була запущена в 2021 році, дозволяла користувачам створювати відео, згенеровані ШІ, просто надаючи текстові підказки. Однак здатність технології створювати дуже переконливі глибокі фейкові відео викликала тривогу серед експертів і політиків, які побоюються можливості зловмисного використання, наприклад створення фейкових новин або видавання себе за публічних діячів.
{{IMAGE_PLACEHOLDER}}У своїй заяві OpenAI визнає проблеми, пов’язані зі зростаючим ландшафтом дипфейків, і потребу в пріоритеті відповідальної розробки та розгортання своїх технологій ШІ. Компанія заявила, що зосередить свої зусилля на потенційно більш прибуткових сферах, таких як інструменти кодування та інші комерційні програми, де ризики неправильного використання можуть бути меншими.
Рішення про припинення Sora розглядається як проактивний крок OpenAI для вирішення зростаючої занепокоєності щодо глибоких фейків та їх потенційної шкоди. Оскільки технологія, яка лежить в основі цих створених за допомогою штучного інтелекту відео, продовжує розвиватися, компанія усвідомлює важливість балансу між інноваціями та необхідністю пом’якшити ризики, пов’язані з неправильним використанням таких потужних інструментів.
{{IMAGE_PLACEHOLDER}}Припинення діяльності Sora відповідає ширшій тенденції в індустрії технологій, де компанії борються з етичними та соціальними наслідками своїх продуктів і послуг. Оскільки технології AI та машинного навчання стають дедалі прогресивнішими, зростає відповідальність за те, щоб вони розроблялися та використовувалися таким чином, щоб захищати особисту конфіденційність, захищати від поширення дезінформації та сприяти суспільному благу.
Хоча рішення про припинення Sora може стати перешкодою для деяких користувачів, воно відображає прагнення OpenAI бути відповідальним розпорядником своєї технології. Оскільки компанія продовжує розширювати межі того, що можливо за допомогою AI, стає зрозуміло, що вона також пам’ятає про можливі наслідки та вживає активних заходів для їх усунення.
{{IMAGE_PLACEHOLDER}}Джерело: Al Jazeera


