Мікроцентри обробки даних: майбутнє обчислень штучного інтелекту?

Хоча технічні гіганти будують величезні центри обробки даних для штучного інтелекту, експерти стверджують, що менші розподілені об’єкти можуть бути більш ефективними та стійкими.
Оскільки штучний інтелект продовжує стрімко поширюватися в галузях промисловості, загальноприйнята думка свідчить, що чим більше, тим краще, коли йдеться про інфраструктуру даних. Технічні гіганти, як-от Google, Microsoft і Amazon, будують величезні центри обробки даних площею сотні тисяч квадратних футів, призначені для задоволення величезних обчислювальних вимог робочого навантаження ШІ. Проте все більше галузевих експертів кидають виклик цьому підходу, стверджуючи, що менші, більш розподілені об’єкти обробки даних можуть насправді являти собою майбутнє обчислень штучного інтелекту.
Поточна тенденція до гіпермасштабованих центрів обробки даних обумовлена переконанням, що централізовані, масивні об’єкти забезпечують економію на масштабі та операційну ефективність, яку не можуть зрівняти менші установки. Ці об’єкти, які часто споживають стільки ж електроенергії, скільки невеликі міста, містять тисячі високопродуктивних серверів і спеціалізованих мікросхем штучного інтелекту, призначених для навчання та запуску складних моделей машинного навчання. Будівництво найбільшої з цих установок може коштувати мільярди доларів і вимагати величезної кількості електроенергії та інфраструктури охолодження для підтримки оптимальних умов роботи.
Незважаючи на очевидну логіку, що лежить в основі цієї величезної інфраструктури, кілька технологічних експертів і дослідників сумніваються, чи справді такі величезні потужності необхідні для ефективного розгортання ШІ. Доктор Сара Чен, дослідник комп’ютерних систем з Массачусетського технологічного інституту, пояснює, що нинішній підхід може бути фундаментально помилковим: «Ми застосовуємо мислення 20-го століття до проблем 21-го століття. Припущення, що централізація дорівнює ефективності, не обов’язково вірно в епоху розподілених обчислень і периферійної обробки».
Аргумент на користь менших центрів обробки даних ґрунтується на кількох переконливі фактори, які кидають виклик традиційній моделі економії масштабу. По-перше, розподілені обчислювальні архітектури часто можуть досягти однакових рівнів продуктивності, пропонуючи більшу стійкість і меншу затримку. Коли обробка штучного інтелекту відбувається ближче до кінцевих користувачів через менші, стратегічно розташовані об’єкти, програми можуть реагувати швидше та надійніше, ніж коли залежать від віддалених мегацентрів.

Енергоефективність є ще однією важливою перевагою підхід до інфраструктури штучного інтелекту «менше – краще». Хоча масивні центри обробки даних, безумовно, виграють від економії масштабу з точки зору охолодження та розподілу електроенергії, вони також створюють значну неефективність через необхідність транспортувати дані на великі відстані та підтримувати величезні обсяги простою. Розподілена обробка штучного інтелекту потенційно може зменшити загальне споживання енергії, усунувши багато з цих втрат при передачі даних і забезпечивши точнішу відповідність ємності.
Географічний розподіл обчислювальних ресурсів штучного інтелекту також пропонує значні переваги з точки зору дотримання нормативних вимог і суверенітету даних. Оскільки уряди в усьому світі впроваджують суворіші закони про захист даних і локальні вимоги до зберігання, невеликі регіональні об’єкти можуть легше адаптуватися до різноманітних правових рамок, ніж великі централізовані установки. Ця гнучкість стає особливо важливою, оскільки програми штучного інтелекту поширюються на такі чутливі сектори, як охорона здоров’я, фінанси та державні послуги.
Вплив інфраструктури ШІ на навколишнє середовище стає дедалі гострішим занепокоєнням, оскільки ці системи споживають дедалі більше електроенергії. Традиційні великомасштабні центри обробки даних часто покладаються на централізовані електромережі, які можуть включати значні компоненти викопного палива, тоді як менші розподілені об’єкти можуть легше інтегруватися з місцевими джерелами відновлюваної енергії. Сонячні батареї, вітряні турбіни та інші технології екологічно чистої енергії можна ефективніше адаптувати до потреб електроенергії менших установок.
Розподілена модель у багатьох сценаріях також є перевагою щодо вартості. Хоча вартість одиниці обчислювальної потужності може бути нижчою у великих об’єктах, загальна вартість володіння включає такі фактори, як нерухомість, дотримання нормативних вимог і управління ризиками. Невеликі центри обробки даних часто можна розгортати в менш дорогих місцях і поступово розширювати відповідно до фактичного попиту, зменшуючи фінансовий ризик, пов’язаний із великими початковими інвестиціями.

Однак перехід до меншої інфраструктури ШІ не обходиться без значних проблем і обмеження. Однією з основних перешкод є поточний дизайн алгоритмів і моделей штучного інтелекту, багато з яких спеціально оптимізовано для можливостей паралельної обробки великих серверних кластерів. Навчання просунутих мовних моделей або систем комп’ютерного бачення часто потребує скоординованих зусиль тисяч процесорів, що працюють одночасно, чого невеликі розподілені засоби можуть важко досягти.
Технічна складність керування розподіленими системами штучного інтелекту також створює значні операційні проблеми. У той час як один великий центр обробки даних може контролюватися та обслуговуватися централізованою командою спеціалістів, кілька невеликих об’єктів потребують більш складних можливостей віддаленого керування та потенційно більшого оперативного персоналу. Ця складність може компенсувати деякі теоретичні переваги розподіленого підходу щодо вартості.
З’єднання з мережею є ще однією значною технічною перешкодою для розподіленої інфраструктури ШІ. Широкомасштабне навчання штучного інтелекту та висновки часто вимагають надзвичайно високої пропускної здатності з’єднань між вузлами обробки, чого може бути важко надійно досягти на територіально розподілених об’єктах. Затримка та потенційні проблеми з надійністю, пов’язані з глобальними мережами, можуть суттєво вплинути на продуктивність розподілених систем ШІ.
Лідери галузі починають досліджувати гібридні підходи, які поєднують елементи як централізованої, так і розподіленої інфраструктури ШІ. Такі компанії, як NVIDIA та Intel, розробляють нові архітектури, які дозволяють динамічно розподіляти навантаження штучного інтелекту між кількома об’єктами на основі поточного попиту, доступних ресурсів і вимог до продуктивності. Ці гібридні системи штучного інтелекту потенційно можуть використовувати переваги обох підходів, мінімізуючи їхні відповідні недоліки.

Поява спеціалізованих чіпів штучного інтелекту, призначених для периферійних обчислень, також сприяє тенденції до меншої та більш розподіленої інфраструктури штучного інтелекту. Ці процесори, оптимізовані для висновків, а не для навчання, можуть забезпечити вражаючі рівні продуктивності, споживаючи значно менше енергії, ніж традиційні серверні рішення. Оскільки ці чіпи стають більш потужними та економічно ефективними, вони дозволяють програмам штучного інтелекту ефективно працювати на менших об’єктах, що було б непрактично ще кілька років тому.
Кілька стартапів і відомих технологічних компаній уже впроваджують стратегії розподіленого штучного інтелекту з багатообіцяючими результатами. Такі компанії, як Packet (зараз є частиною Equinix) і Vapor IO, будують мережі менших центрів обробки даних, спеціально розроблених для підтримки розподілених робочих навантажень ШІ. Ці об’єкти, які часто розміщені в перепрофільованих транспортних контейнерах або невеликих будівлях, можна швидко розгортати та масштабувати відповідно до місцевого попиту.
Телекомунікаційна галузь також стимулює впровадження розподіленої інфраструктури штучного інтелекту через розгортання мереж 5G і периферійних обчислювальних можливостей. Оскільки оператори мобільного зв’язку будують свої мережі наступного покоління, вони впроваджують можливості обробки штучного інтелекту безпосередньо в вежі стільникового зв’язку та локальні мережі. Цей підхід дозволяє використовувати додатки штучного інтелекту в реальному часі, як-от автономні транспортні засоби та системи доповненої реальності, які вимагають надзвичайно низької затримки відповідей.
Заглядаючи в майбутнє, майбутнє архітектури центрів обробки даних зі штучним інтелектом, ймовірно, включатиме більш тонкий підхід, ніж нинішня зосередженість на великих централізованих об’єктах. Для різних типів додатків AI можуть знадобитися різні стратегії інфраструктури, причому деякі робочі навантаження виграють від централізованої обробки, а інші працюють краще в розподілених середовищах. Навчання великих моделей штучного інтелекту може й надалі вимагати величезних засобів, тоді як додатки логічного висновку та периферійні програми можуть перейти до менших, більш розподілених архітектур.
Нормативні та політичні фактори також відіграватимуть важливу роль у формуванні майбутнього інфраструктури штучного інтелекту. Урядові стимули для впровадження відновлюваних джерел енергії, вимоги до локалізації даних і екологічні норми можуть надавати перевагу розподіленим підходам, а не централізованим мегаоб’єктам. Оскільки занепокоєння зміною клімату посилюється, тиск щодо зменшення впливу штучного інтелекту на навколишнє середовище, ймовірно, прискорить впровадження ефективніших розподілених архітектур.
Дебати щодо розмірів центрів обробки даних ШІ зрештою відображають ширші питання щодо оптимальної архітектури для комп’ютерних систем наступного покоління. Оскільки штучний інтелект все більше інтегрується в повсякденні програми та служби, інфраструктурі, що підтримує ці системи, потрібно буде розвиватися за межі поточного універсального підходу до більш гнучких, адаптивних рішень, які можуть відповідати різноманітним вимогам щодо продуктивності, вартості та навколишнього середовища.
Джерело: BBC News


