Cisco Global Cloud Index (GCI) оценивает и прогнозирует глобальные показатели IP-трафика в облаке и дата-центрах. Отчет освещает тенденции, связанные с облачными вычислениями и виртуализацией ЦОД в период с 2016 по 2021 годы.
При составлении отчета учитывались данные трафика внутри дата-центров и между ними, а также обмен данными между ЦОД и конечными пользователями (Таблица 1 в методологии).
Сколько стоит hyperscale
Недавно мы рассказывали о тенденции к увеличению числа гипермасштабируемых дата-центров. Одним из основных трендов в отчете Cisco также отмечено развитие hyperscale-инфраструктуры.
По прогнозам Cisco, количество гипермасштабируемых ЦОД достигнет 628 к 2021 году (сейчас их — 338). К этому времени объем трафика в таких дата-центрах увеличится в 4 раза и составит 55% от общего трафика внутри ЦОД (сейчас он составляет 39%).
Чтобы подсчитать количество гипермасштабируемых ЦОД, в Cisco анализировали выручку облачных провайдеров. Логика составителей отчета состояла в следующем: если компания, предоставляющая IaaS/PaaS/SaaS-услуги, соответствует выбранным критериям по выручке от этих направлений деятельности, значит, она обладает инфраструктурой, способной обеспечить работу гипермасштабируемых ЦОД. По данным отчета, минимальные требования к годовому доходу hyperscale-провайдера следующие:
- 1 млрд долларов для IaaS-, PaaS- и хостинг-провайдеров (Rackspace, Google);
- 2 млрд для SaaS-провайдеров (Salesforce, ADP, Google);
- 4 млрд для интернет-провайдеров, поисковиков и социальных сетей (Facebook, Yahoo, Apple);
- 8 млрд для сервисов электронной торговли и обработки платежей (Alibaba, eBay).
В мире пока насчитывается 24 дата-центра, которые попадают под эти критерии. Кстати, несмотря на впечатляющую выручку, гипермасштабируемые ЦОД — исключительно дорогие проекты. Согласно анализу от Platformonomics, AWS, Microsoft и Google вместе потратили 100 миллиардов долларов на создание гипермасштабируемой инфраструктуры.
На что тратят деньги
Согласно отчету аналитического подразделения Spiceworks, 44% компаний планируют увеличить ИТ-бюджет в 2018 году, 43% оставят его без изменений, а 11% хотят уменьшить ИТ-расходы [опрос проводился среди североамериканских и европейских компаний разного размера — от микропредприятий до представителей крупного бизнеса]. В зависимости от размера организации, затраты на облачную инфраструктуру составят порядка трети от общего бюджета на ИТ.
В этом отчете есть еще один интересный момент — 10% от всех затрат на ПО будет выделено на задачи, связанные с виртуализацией (наши примеры виртуальной инфраструктуры).
Это вполне соответствует трендам, отмеченным в отчете Cisco. В отчете GCI компания подчеркнула темпы перехода бизнесов по всему миру на облачные технологии. Предполагается, что объем рабочих нагрузок в облаке увеличится в 2,7 раза с 2016 по 2021 годы. В тоже время, объем нагрузок, который приходится на традиционную инфраструктуру, будет уменьшаться — среднегодовой темп их снижения составит 5%.
Эти тренды отмечают и другие компании. По данным Gartner, к 2020 году объём рынка IaaS и PaaS составит 72 и 21 млрд долларов. Кроме того, Cisco отмечают рост инвестиций в IoT-решения: «умные » машины, города, и связанные с ними приложения. Ожидается, что к 2021 году этот рынок IoT достигнет 13,7 миллиардов долларов, по сравнению с 5,8 миллиарда долларов в 2016 году, и для него потребуются дополнительные ресурсы облачной инфраструктуры.
Индивидуальный подход
Крупные ИТ-компании (Google, Facebook, Microsoft и др.) активно инвестируют в оборудование, разработанное под индивидуальные нужды. С помощью кастомного оборудования, например, реализуется проект Open Compute Project (OCP). Компания Facebook запустила его, чтобы создать (по их словам) «самый энергоэффективный дата-центр, обеспечивающий беспрецедентные возможности масштабирования по минимальной цене».
В итоге команде инженеров действительно удалось спроектировать уникальный дата-центр: по данным OCP, он на 38% более энергоэффективен и на 24% дешевле в обслуживании, чем ЦОД, которые до этого использовались в Facebook. Сейчас к проекту присоединяются и другие компании — в рамках OCP они обмениваются наработками в области создания «кастомных ЦОД».
К примеру, на базе OCP свое решение запускает Microsoft. На конференции Zettastructure ИТ-гигант представил новую модель для разработки открытого аппаратного обеспечения — проект Olympus. Azure уже использует его в продакшн-среде с виртуальными машинами семейства Fv2. В Microsoft утверждают, что проект позволит клиентам решать задачи финансового моделирования и глубокого обучения.
Помимо этого, развивается разработка заказных чипов, адаптированных к различным нагрузкам. Среди таких проектов тензорный процессор (TPU) от Google для глубокого обучения и программируемые пользователем вентильные матрицы (FPGA) от Microsoft для ускорения систем Azure. В Intel также постоянно разрабатывают процессорные чипы под индивидуальные нужды ИТ-компаний, например Oracle и Facebook. В Intel могут по заказу реализовать дополнительные интерфейсы, напрямую подключить электронику к ядрам CPU или же сформировать индивидуальный набор инструкций процессора.
P.S. Пара наших статей по теме исследований и прогнозов в ИТ:
P.P.S И несколько постов из нашего блога о корпоративном IaaS:
Комментариев нет:
Отправить комментарий