Open Compute Project
Open Compute Project (OCP) — это концепция, сообщество и организация, в рамках которых участники в форме открытого диалога делятся разработками в сфере программного, аппаратного и физического проектирования современных центров обработки данных (ЦОД) и оборудования для них. Основной задачей проекта является снижение CAPEX и OPEX инфраструктуры крупномасштабных ЦОД. Объединение включает в себя такие компании, как Facebook, IBM, Intel, AMD, Nokia, Google, Huawei, Microsoft, Seagate Technology, Western Digital, Dell, Rackspace, Cisco, Goldman Sachs, Lenovo, Alibaba Group, Schneider Electric, Samsung и многие другие. Из российских компаний участвуют Delta Solutions Архивная копия от 9 сентября 2019 на Wayback Machine[1], Gagar>In Архивная копия от 24 марта 2020 на Wayback Machine[1], ранее присутствовала Yandex.[2][3]
Open Compute Project | |
---|---|
Тип организации | Общественная организация |
Основание | |
Дата основания | 2011 |
Отрасль | IT |
Сайт | opencompute.org |
Структура проектаПравить
В апреле 2011 Джонатан Хайлигер (Facebook) объявил об инициативе открыто делиться наработками в области разработок продукции для центров обработки данных (ЦОД).[4] Эта идея появилась, как результат работы над модернизацией ЦОД Facebook в Прайнвилле, Орегон.[5][6]. В скором времени эта инициатива была положительно принята IT средой. В результате сформировалось сообщество, состоящее из компаний, поддержавших такую инициативу.
Open Compute Project – это некоммерческая организация, зарегистрированная в штате Делавэр. Генеральный директор фонда – Роки Баллок. В состав совета директоров входят 7 членов в лице 6 организаций и 1 физического лица (Энди Бехтольсхайма[en]). Марк Рёнигк (Facebook) является президентом и председателем фонда. Помимо Марка Рёнигка, который представляет Facebook, в совет Open Compute входят следующие организации: Intel (Джейсон Уаксман), Goldman Sachs (Джошуа Матеус), Rackspace (Джим Хоукинс) и Microsoft (Майк Нил).[7]
Проекты OCPПравить
Разработчики, участвующие в деятельности сообщества, стремятся достичь универсальности и простоты масштабирования инфраструктуры и вычислительных мощностей. При этом манипуляции, производимые над оборудованием, должны минимально влиять на его работоспособность, производиться в режиме горячей замены и задействовать минимальное количество обслуживающего персонала, а также автоматизировать мониторинг потребляемых ресурсов и наблюдать статистику сбоев. Стойка OCP v2 и оборудование на YouTube. Фонд Open Compute Project поддерживает ряд проектов OCP, таких как:
Архитектура сервераПравить
Через два года после старта работы над Open Compute Project, принимая во внимание стремление к максимально модульной конструкции, основатели признавали, что «новая концепция ещё далека от реальных требований центров обработки данных».[8] Тем не менее, некоторые обнародованные идеи были использованы в ЦОД Facebook в Прайнвилле для улучшения энергоэффективности, согласно измерениям PUE[en], параметра, разработанного The Green Grid[en].[9]
Разработки по совершенствованию конструкции вычислительных узлов проводились с использованием процессоров Intel и AMD. В 2013 Calxeda представила топологию с процессорами ARM архитектуры. С тех пор были представлены несколько поколений архитектур серверов OCP: Freedom (Intel), Spitfire (AMD), Windmill (Intel E5-2600), Watermark (AMD), Winterfall (Intel E5-2600 v2) и Leopard (Intel E5-2600 v3).[10][11]
Хранилище данныхПравить
Конструктивные блоки хранилищ Oven Vault обеспечивают высокую плотность дисков , благодаря 30 дискам, вмещающимся в корпус 2U Open Rack[en], разработанном для лёгкой замены жёстких дисков. 3.5-дюймовые диски хранятся в двух ящиках, по пять в поперечнике и по три в глубину в каждом ящике, с подключением посредством SAS интерфейса. Это хранилище также называется Knox, и существует также холодный вариант хранилища, где незанятые диски отключаются для снижения энергопотребления.[12] Другая концепция архитектуры была представлена Hyve Solutions, подразделением Synnex[en], в 2012. На OCP Summit 2016 Facebook совместно с тайваньским отделением ODM Wistron, Wiwynn, представили Lightning, гибкий NVMe JBOF (“just a bunch of flash”), основанный на существующей архитектуре Open Vault (Knox).[13]
Конструкция стойкиПравить
Согласно обнародованным чертежам монтажные стойки имеют такую же наружную ширину (600мм) и глубину, что и стандартные 19-дюймовые стойки, но позволяют осуществлять установку более широких шасси с шириной 537мм (около 21 дюйма). Это позволяет разместить больше оборудования в том же самом объёме и улучшить прохождение потока воздуха. Размеры вычислительных шасси определяются как кратные OpenU[en], что составляет 48мм, немного более, чем у обычного телекоммуникационного юнита.
Энергоэффективные центры обработки данныхПравить
OCP опубликовала проекты центров обработки данных с улучшенным КПД, описывавшее распределение питания 277В переменного тока, что исключает одну из стадий преобразования напряжения в типовых ЦОД. Система питания с единым выходным напряжением (12,5В постоянного тока) предназначена для работы со входным напряжением 277В и включает в себя 48В аккумуляторные батареи.[9] Впоследствии уровни напряжения были адаптированы под различные региональные стандарты энергосетей, в том числе и принятые в России.
В первых поколениях серверов было решено отказаться от резервирования встроенных блоков питания и использовать по одному высокоэффективному преобразователю (80 PLUS), разработанному Power-One (принадлежит Bel Power Solutions Архивная копия от 15 сентября 2020 на Wayback Machine), вместо традиционных двух. Это снижало надёжность оборудования, но улучшало CAPEX и OPEX ЦОД, т.к. помимо затрат на вспомогательные блоки, устранялось и энергопотребление «спящих» в резерве единиц. В дальнейшем этот подход эволюционировал в использование вынесенных в отдельные узлы модульных источников питания, т.н. Power Shelf. Всё полезное оборудование в стойке в данном случае подключено к 12В шине. С этого момента питание стоек было организовано напрямую от трёхфазной сети (реже от высоковольтной шины 300В постоянного тока). Дальнейшим развитием архитектуры стало избавление от отдельно стоящих ИБП и внедрению 48В аккумуляторных батарей горячей замены BBU (Battery Back-Up Unit) в состав силовых полок (Open Rack V2). Параллельное развитие получили решения с шиной 48В постоянного напряжения вместо 12В, которые позволяют достичь ещё более высокого КПД, но имеют и свои трудности.[14] Помимо того, шина 48В оказалась востребованной операторами сотовой связи при модернизации своей инфраструктуры под вычислительные требования сетей 5G и виртуализации.
В марте 2015 Facebook сообщила, что использование OCP позволило им сэкономить 2 млрд $ в течение последних 3 лет[15] и достичь внушительных показателей PUE в пределах 1.05-1.10. В качестве подтверждения Facebook выложила в Интернете онлайн отчёты в реальном времени со своих центров обработки данных в Прайнвилле и Форест Сити.[16][17]
Open сетевые коммутаторыПравить
Этот перевод статьи с другого языка требует улучшения (см. Рекомендации по переводу). |
8 мая 2013 была предпринята попытка определить требования к Open сетевому коммутатору.[18] Задача заключалась в том, чтобы Facebook могла загружать в коммутатор собственную операционную систему. СМИ считали, что более дорогие и высокопроизводительные коммутаторы будут по-прежнему поставляться с собственным программным обеспечением, в то время, как менее дорогостоящие продукты, которые принято считать ширпотребными (обычно обозначаются с использованием модного слова «top-of-rack”), могут принять это предложение.[19]
Первая попытка создать Open сетевой коммутатор от Facebook была предпринята совместно с тайваньской ODM Accton[en] с использованием Broadcom Trident II и называется Wedge, а версия ОС Linux, на которой работает это устройство, называется FBOSS.[20][21][22] Более поздние разработки носят название «6-pack» и Wedge-100 и основаны на чипах Broadcom Tomahawk.[23] Аналогичные конструкции аппаратного обеспечения были представлены компаниями Edge-Core Networks Corporation (отделение Accton), Mellanox Technologies, Interface Masters Technologies и Agema Systems.[24], способные работать в Open Network Install Environment[en] (ONIE) совместимых сетевых операционных системах, таких, как Cumulus Linux, Switch Light OS от Big Switch Networks[en] или PICOS от Pica8[en]. Ходили слухи, что аналогичный пользовательский коммутатор для платформы Google[en] разрабатывался с использованием протокола OpenFlow.
OCP Experience CenterПравить
В 2019 году совместными усилиями участников сообщества был открыт европейский OCP Experience Center Архивная копия от 29 декабря 2020 на Wayback Machine в Амстердаме.OCP Experience Center позволяет не только продемонстрировать участникам свои продукты, но также и увидеть программно-аппаратные решения, которые демонстрируют преимущества данной платформы.
В декабре 2020 года в центре Москвы открывает свои двери первая Российская OCP Experience Lab. И отличие в названии очень точно отражает цели, которые тут были поставлены – не просто показать, дать возможность «пощупать» продукты ведущих производителей OCP, а возможность собрать тестовый стенд для "обкатки" целевого промышленного программного обеспечения на серийных серверах в оптимальной конфигурации.
Судебный процессПравить
В марте 2015[25] BladeRoom Group Limited и Bripco (UK) Limited подали в суд на Facebook, Emerson Electric Co. и др., утверждая, что Facebook раскрыла торговые секреты BladeRoom и Bripco в области предсобранных центров обработки данных в Open Compute Project.[26] Facebook ходатайствовала об отклонении иска,[27] но в 2017 оно было отклонено.[28] Конфиденциальное урегулирование в середине судебного процесса было согласовано в апреле 2018.[29]
РазвитиеПравить
В 2017 объём рынка, охваченного технологиями OCP составил 1,16млрд $. В 2018 c 2,56млрд$ он удвоился, достигнув почти 1% от всего рынка ЦОД, с учётом снижения общего объёма в сегменте с 137 до 127 млрд$. По прогнозам в 2022 объём рынка OCP должен составить более 10млрд $, иными словами 5% от всего рынка ЦОД. С развитием сетей 5G и потребностей в виртуализации ожидается преодоление операторами связи объёма сделок в этом сегменте, осуществляемых операторами крупномасштабных центров обработки данных[en]. Преимущественное развитие отводится рынкам Америки и в меньшей степени стран Азиатско-Тахоокеанского региона[en].
ПримечанияПравить
- ↑ 1 2 Membership Directory (неопр.). Дата обращения: 5 сентября 2019. Архивировано 20 августа 2019 года.
- ↑ Chayanov, Peter Изобретая серверы — Open Compute Project (неопр.) (14 сентября 2015). Дата обращения: 5 сентября 2019. Архивировано 16 января 2021 года.
- ↑ Chayanov, Peter Серверы для телекома: оптимизированные решения для современных ЦОДов (неопр.) (17 февраля 2016). Дата обращения: 5 сентября 2019. Архивировано 13 июня 2021 года.
- ↑ Miller, Rich Will Open Compute Alter the Data Center Market? (неопр.) Data Center Knowledge (14 апреля 2011). Дата обращения: 9 июля 2013. Архивировано 12 ноября 2020 года.
- ↑ Heiliger, Jonathan Building Efficient Data Centers with the Open Compute Project (неопр.). Facebook Engineering's notes (7 апреля 2011). Дата обращения: 9 июля 2013. Архивировано 31 августа 2019 года.
- ↑ Bort, Julie How Facebook is eating the $140 billion hardware market (неопр.). Business Insider. Дата обращения: 19 августа 2019. Архивировано 19 августа 2019 года.
- ↑ Board Members (неопр.). Дата обращения: 19 августа 2019. Архивировано 16 июня 2019 года.
- ↑ Metz, Cade. Facebook Shatters the Computer Server Into Tiny Pieces, Wired (January 16, 2013). Архивировано 15 марта 2014 года. Дата обращения: 9 июля 2013.
- ↑ 1 2 Michael, Amir Facebook's Open Compute Project (неопр.). Stanford EE Computer Systems Colloquium. Stanford University (15 февраля 2012). Дата обращения: 5 сентября 2019. Архивировано 19 января 2013 года. (video archive)
- ↑ Data Center Knowledge. Guide to Facebook’s Open Source Data Center Hardware (неопр.) (28 апреля 2016). Дата обращения: 13 мая 2016. Архивировано 15 августа 2019 года.
- ↑ Register, The Facebook rolls out new web and database server designs (неопр.) (17 января 2013). Дата обращения: 13 мая 2016. Архивировано 1 февраля 2017 года.
- ↑ Under the hood: Facebook’s cold storage system (неопр.) (4 мая 2015). Дата обращения: 13 мая 2016. Архивировано 8 ноября 2020 года.
- ↑ Petersen, Chris Introducing Lightning: A flexible NVMe JBOF (неопр.) (9 марта 2016). Дата обращения: 13 мая 2016. Архивировано 18 июля 2017 года.
- ↑ Rack and Power (неопр.) (Sep 5, 2019). Дата обращения: 15 марта 2022. Архивировано 18 мая 2021 года.
- ↑ Facebook nets billions in savings from Open Compute Project (неопр.) (MAR 11, 2015). Дата обращения: 5 сентября 2019. Архивировано 12 августа 2020 года.
- ↑ Prineville, OR Data Center (неопр.) (Sep 05, 2019). Дата обращения: 5 сентября 2019. Архивировано 26 октября 2019 года.
- ↑ Forest City, NC Data Center (неопр.) (Sep 05, 2019). Дата обращения: 5 сентября 2019. Архивировано 19 ноября 2019 года.
- ↑ Jay Hauser for Frank Frankovsky. Up next for the Open Compute Project: The Network (неопр.). Open Compute blog (8 мая 2013). Дата обращения: 16 июня 2019. Архивировано 16 июня 2019 года.
- ↑ Chernicoff, David. Can Open Compute change network switching?, ZDNet (May 9, 2013). Архивировано 2 февраля 2014 года. Дата обращения: 9 июля 2013.
- ↑ Facebook Open Switching System (FBOSS) from Facebook (неопр.). SDxCentral. Дата обращения: 5 сентября 2019. Архивировано из оригинала 1 октября 2018 года.
- ↑ Introducing "Wedge" and "FBOSS," the next steps toward a disaggregated network (неопр.). Meet the engineers who code Facebook (18 июня 2014). Дата обращения: 13 мая 2016. Архивировано 26 апреля 2016 года.
- ↑ Facebook Open Switching System ("FBOSS") and Wedge in the open (неопр.). Meet the engineers who code Facebook (10 марта 2015). Дата обращения: 13 мая 2016. Архивировано 2 июля 2016 года.
- ↑ Opening designs for 6-pack and Wedge 100 (неопр.). Meet the engineers who code Facebook (9 марта 2016). Дата обращения: 13 мая 2016. Архивировано 14 апреля 2016 года.
- ↑ Accepted or shared hardware specifications (неопр.). Open Compute. Дата обращения: 13 мая 2016. Архивировано 14 мая 2016 года.
- ↑ BladeRoom Group Limited et al v. Facebook, Inc. (неопр.) Justia. Дата обращения: 18 февраля 2017. Архивировано 6 августа 2020 года.
- ↑ ORDER granting in part and denying in part 128 Motion to Dismiss (неопр.). Justia. Дата обращения: 18 февраля 2017. Архивировано 6 августа 2020 года.
- ↑ Facebook Wants Data Center Trade Secrets Suit Tossed, Law360 (10 May 2016). Архивировано 6 августа 2020 года. Дата обращения: 8 марта 2017.
- ↑ Court Throws Out Facebook’s Motion to Dismiss Data Center Design Lawsuit, Data center Knowledge (17 February 2017). Архивировано 6 октября 2018 года. Дата обращения: 8 марта 2017.
- ↑ Facebook settles $365m modular datacentre IP theft case with UK-based BladeRoom Group (неопр.). Computer Weekly (11 апреля 2018). Дата обращения: 15 марта 2019. Архивировано 7 августа 2020 года.
СсылкиПравить
- Novena (вычислительная платформа)[en]
- OpenBMC[en]
- Open-source computing hardware[en]
- OpenPOWER Foundation[en]
- Telecom Infra Project[en] – сестринская компания Facebook, сфокусированная на оптических[en] широкополосных сетях и открытых сотовых сетях