Микроцентры обработки данных: будущее вычислений с использованием искусственного интеллекта?

В то время как технологические гиганты строят огромные центры обработки данных для искусственного интеллекта, эксперты утверждают, что меньшие распределенные объекты могут быть более эффективными и устойчивыми.
Поскольку искусственный интеллект продолжает стремительно распространяться по отраслям, общепринятое мнение подсказывает, что чем больше, тем лучше, когда дело касается инфраструктуры данных. Технические гиганты, такие как Google, Microsoft и Amazon, строят огромные центры обработки данных площадью в сотни тысяч квадратных футов, предназначенные для удовлетворения огромных вычислительных потребностей рабочих нагрузок ИИ. Однако все большее число отраслевых экспертов оспаривают этот подход, утверждая, что меньшие, более распределенные объекты обработки данных могут на самом деле представлять будущее вычислений с использованием искусственного интеллекта.
Нынешняя тенденция к гипермасштабным центрам обработки данных обусловлена убеждением, что централизованные, массивные объекты обеспечивают экономию за счет масштаба и операционную эффективность, с которыми не могут сравниться меньшие установки. Эти объекты, зачастую потребляющие столько же энергии, как небольшие города, содержат тысячи высокопроизводительных серверов и специализированных микросхем искусственного интеллекта, предназначенных для обучения и запуска сложных моделей машинного обучения. Строительство крупнейшей из этих установок может стоить миллиарды долларов, а для поддержания оптимальных условий эксплуатации потребуется огромное количество электроэнергии и охлаждающей инфраструктуры.
Несмотря на очевидную логику такого масштабного строительства инфраструктуры, некоторые технологические эксперты и исследователи задаются вопросом, действительно ли такие огромные мощности необходимы для эффективного развертывания искусственного интеллекта. Доктор Сара Чен, исследователь компьютерных систем в Массачусетском технологическом институте, объясняет, что нынешний подход может быть фундаментально ошибочным: «Мы применяем мышление 20-го века к проблемам 21-го века. Предположение о том, что централизация равна эффективности, не обязательно справедливо в эпоху распределенных вычислений и периферийной обработки».
Аргумент в пользу меньших центров обработки данных основан на нескольких убедительных факторах, которые бросают вызов традиционной модели экономии за счет масштаба. Во-первых, архитектуры распределенных вычислений часто могут достигать аналогичных уровней производительности, обеспечивая при этом большую отказоустойчивость и уменьшенную задержку. Когда обработка ИИ происходит ближе к конечным пользователям с помощью небольших, стратегически расположенных объектов, приложения могут реагировать быстрее и надежнее, чем когда они зависят от удаленных мегацентров.

Энергоэффективность представляет собой еще одно важное преимущество подхода к ИИ, основанного на принципе «меньше — лучше» инфраструктура. Хотя крупные центры обработки данных, безусловно, выигрывают от экономии за счет масштаба с точки зрения охлаждения и распределения электроэнергии, они также создают значительную неэффективность из-за необходимости передавать данные на большие расстояния и поддерживать огромные объемы простаивающих мощностей. Распределенная обработка ИИ потенциально может снизить общее энергопотребление за счет устранения многих из этих потерь при передаче и обеспечения более точного согласования пропускной способности.
Географическое распределение вычислительных ресурсов ИИ также дает существенные преимущества с точки зрения соответствия нормативным требованиям и суверенитета данных. Поскольку правительства во всем мире вводят более строгие законы о защите данных и требования к локальному хранению, небольшие региональные учреждения могут легче адаптироваться к изменяющимся правовым нормам, чем крупные централизованные установки. Эта гибкость становится особенно важной по мере того, как приложения ИИ распространяются на такие чувствительные сектора, как здравоохранение, финансы и государственные услуги.
Воздействие инфраструктуры ИИ на окружающую среду становится все более актуальной проблемой, поскольку эти системы потребляют все больше электроэнергии. Традиционные крупномасштабные центры обработки данных часто полагаются на централизованные электросети, которые могут включать значительные компоненты ископаемого топлива, в то время как более мелкие распределенные объекты могут легче интегрироваться с местными возобновляемыми источниками энергии. Солнечные панели, ветряные турбины и другие экологически чистые энергетические технологии можно более эффективно адаптировать к потребностям небольших установок в электроэнергии.
Соображения стоимости также отдают предпочтение распределенной модели во многих сценариях. Хотя стоимость вычислительной мощности на единицу мощности может быть ниже в крупных объектах, общая стоимость владения включает в себя такие факторы, как недвижимость, соответствие нормативным требованиям и управление рисками. Небольшие центры обработки данных часто можно развернуть в менее дорогих местах и масштабировать более постепенно в зависимости от фактического спроса, что снижает финансовый риск, связанный с крупными первоначальными инвестициями.

Однако переход к меньшей инфраструктуре искусственного интеллекта не лишен серьезных проблем и ограничений. Одним из основных препятствий является нынешняя конструкция алгоритмов и моделей искусственного интеллекта, многие из которых специально оптимизированы для возможностей параллельной обработки больших серверных кластеров. Обучение продвинутых языковых моделей или систем компьютерного зрения часто требует скоординированных усилий тысяч процессоров, работающих одновременно, чего могут с трудом добиться эффективно распределенные меньшие предприятия.
Техническая сложность управления распределенными системами искусственного интеллекта также создает серьезные эксплуатационные проблемы. В то время как один крупный центр обработки данных может контролироваться и обслуживаться централизованной командой специалистов, для нескольких небольших объектов требуются более сложные возможности удаленного управления и потенциально более крупный оперативный персонал. Эта сложность может компенсировать некоторые теоретические преимущества распределенного подхода в стоимости.
Сетевое подключение представляет собой еще одно серьезное техническое препятствие для распределенной инфраструктуры искусственного интеллекта. Крупномасштабное обучение и вывод ИИ часто требуют соединений с чрезвычайно высокой пропускной способностью между узлами обработки, чего может быть трудно добиться надежно на географически распределенных объектах. Задержки и потенциальные проблемы с надежностью, связанные с глобальными сетями, могут существенно повлиять на производительность распределенных систем искусственного интеллекта.
Лидеры отрасли начинают изучать гибридные подходы, сочетающие в себе элементы как централизованной, так и распределенной инфраструктуры искусственного интеллекта. Такие компании, как NVIDIA и Intel, разрабатывают новые архитектуры, которые позволяют динамически распределять рабочие нагрузки ИИ по нескольким объектам в зависимости от текущего спроса, доступных ресурсов и требований к производительности. Эти гибридные системы искусственного интеллекта потенциально могут использовать преимущества обоих подходов, сводя к минимуму их недостатки.
Источник: BBC News


