Да се охладим: актуалните тенденции в охлаждането на центровете за данни

16.11.2022 747 3

В наши дни центровете за данни са гореща тема по много причини. Една от тях е буквална. Те генерират много топлина и охлаждането им е сложно и скъпо предизвикателство. Компаниите по света работят по множество решения, но няма как да има един победител, тъй като има много фактори.

И макар да няма универсално решение за охлаждане на центрове за данни, има няколко технологии, които ще са добър избор за определени сценарии. Нека да разгледаме някои от най-интересните, които водят тенденциите. Има доста атрактивни решения, които се прилагат от компаниите.

Нека да се потопим

Обикновено свързваме името на Intel с чипове, но компанията е име и в множество проекти с дейта центрове. Има логика, тъй като чиповете са основният източник на топлина в центровете за данни, затова ефективното им охлаждане е задължително. Компанията работи заедно с партньори в областта на охлаждането и това ѝ позволява да събира информация и опит, за да оптимизира своя хардуер. Също така помага и на специалистите по охлаждане да предложат по-добри решения.

Сега Intel работи с Open Compute Project и няколко производителя на охладителни системи, за да изработят заедно стандарти в сферата на течното охлаждане, за да може то да стане по-достъпно. И компанията е особено заинтригувана от една конкретна ниша в течното охлаждане – потапянето. При него целите сървърни платки се потапят изцяло в течност.

„Въздушното охлаждане е с нас от много време и също толкова дълго хората говорят за течното охлаждане. То винаги е било нещото, което ще правим в бъдеще. Смятаме, че достигнахме момент, в който течното охлаждане трябва да играе много по-голяма роля в центъра за данни. Според мен през последната година има много по-голяма енергия около охлаждането чрез потапяне от когато и да е било и смятам, че дойде неговото време“, казва Зейн Бол, вицепрезидент и генерален мениджър на инженерните и архитектурни проекти на Intel за центровете за данни, по време на конференцията Open Compute Summit в Сан Хосе, цитиран от DataCenterFrontier.

Охлаждането чрез потапяне има доста предимства. Сред тях е възможността да се използват сървъри без повдигнат под. Няма нужда от охладители или друго оборудване за въздушно охлаждане. То е и по-ефективно за конфигурации с по-голяма плътност и енергийна консумация, които увеличават своята популярност заради възхода на изкуствения интелект. Колкото повече се увеличава и консумацията на енергия, толкова по-трудно е за въздушното охлаждане да се справя. Затова са необходими алтернативни решения.

Този тип охлаждане чрез потапяне е подходящо и за по-топлите климати, казва Бол. То позволява да се премахнат вентилаторите от системата и това значително намалява енергийната консумация на целия център за данни. Използването на специална течност намалява и използването на вода от дейта центровете, което е още едно предимство от гледна точка на техните разходи и за околната среда.

Основният проблем на охлаждането чрез потапяне е, че много производители не приемат гаранцията на чиповете и компонентите си, ако са третирани по този начин. Затова Intel иска да се намеси и да помогне за създаването на ясни стандарти. „Един от проблемите, които трябва да решим, са самите течности. Те докосват всеки компонент, така че всеки от тях трябва да е годен за работа с течността и това е проблем. Трябва да стандартизираме течностите, за да могат операторите да знаят какво да очакват от тях“, казва Бол.

Разбира се, има и други предизвикателства, но компанията иска да ги реши едно по едно. Първата задача сега е да се изгради основата със стандарти и ясни спецификации. Това ще позволи на индустрията да мащабира и развие по-бързо охлаждането чрез потапяне и решаването на следващите предизвикателства ще стане естествена част от процеса.

Meta се присъединява към течния чат

Собственикът на Facebook, Meta, също е почитател на течното охлаждане. Компанията знае, че с възхода на изкуствения интелект и своята визия за метавселената, ще се нуждае от много мощни центрове за данни. И че те ще генерират топлина. Много топлина.

Какво прави Meta по този въпрос? Присъединява се към тенденцията на течното охлаждане. Компанията обяви по време на същия Open Compute Summit своя нов подход. Той включва плавен преход към течно охлаждане за своите центрове. За сега тя няма да използва метода на потапянето. Вместо това Meta ще използва студени плочи, които разчитат на вода, за да се охлаждат и са разположени върху процесора и графичния чип. Тя вече работи по няколко различни версии на това охлаждане, за да се справя и с осигуряването на вода с увеличаване на плътността и мощността на сървърите.

„Тенденцията на увеличаване на консумацията на енергия и растящата нужда от течно охлаждане ни карат да мислим различно за всички елементи на нашата платформа, ракове, енергия и целия дизайн на центровете за данни. Преминавайки към следващата компютърна платформа, метавселената, нуждата от нови, отворени иновации за обработка на изкуствения интелект са още по-видими“, пише Алексис Бьорлин, вицепрезидент на Meta и ръководител на инженерния отдел на компанията в нейния блог.

На практика мета ще разчита на течно охлаждане с „въздушна асистенция“, като се опитва да вземе най-доброто от двата метода. И това е добре дошло за производителите на оборудване за течно охлаждане, тъй като Meta ще бъде огромен клиент със сериозни нужди. Дори само тя има потенциал да бъде голям катализатор за сегмента. Компанията казва, че в момента в процес на изграждане са 47 центъра за данни по света. Не трябва да се забравя, че тя иска да обнови и съществуващите центрове, където това ще има смисъл.

По-малко вода и повече топлина

Оказва се, че Meta иска да премине към течно охлаждане, но с вода. Това, особено като се има предвид огромният мащаб на дейността ѝ, може да предизвика притеснения, че тя ще консумира значителни количества вода.

Meta осъзнава този факт и компанията работи по решения, които да намалят консумацията на вода възможно най-много. Наскоро компанията е приключила тестове в един от центровете си за данни и е взела смело решение – да увеличи температурата в сървърните помещения до около 32 градуса по Целзий. Освен това тя вече е намалила и влагата до около 13% в сървърните помещения във всички свои дейта центрове. Тази комбинация ще спести „милиони литри“ вода всяка година.

„Имаме непоклатим фокус върху намаляването на консумацията на вода. Да сме водно положителни означава, че ще възстановим повече вода обратно в околната среда, отколкото използваме“, казва пред DataCenterDynamics Джеймс Монахън, директор на инженерните проекти за центровете на данни на Meta.

За да се случи това, компанията работи по максималното оползотворяване на хардуера си в различни условия, като запазва и безопасността. Всички решения се взимат след анализ на множество критерии за проблеми, процент дефекти и др. Целта на Meta е да бъде водно положителна до 2030 г. Това ще е трудно за постигане, като се има предвид темпото, с което тя строи нови центрове за данни.

Meta казва, че тези усилия дават резултат. Спестяванията на вода варират между 10% и 65% в зависимост от климата, в който се намира всеки център за данни. Компанията също така подобрява обработката на вода и използва по-качествени процеси за филтриране и омекотяване. Тя инвестира и в различни проекти за възстановяване и производство на вода, за да компенсира своята консумация. Meta казва, че през 2021 г. е възстановила 617 млн. галона вода, а е използвала 678 млн. за глобалните си операции. Също така обаче са използвани 875 млн. галона вода за нужното за нея електричество.

Постоянно развитие

Не всички решения за охлаждане на центрове за данни идват от ИТ компании. Castrol например е добре позната в автомобилния бранш, но сега навлиза и в сектора за охлаждане на дейта центрове. През октомври 2022 г. компанията обяви, че отваря център за разработка и тестове в тази сфера в световната си централа, която се намира във Великобритания.

Castrol ще се концентрира върху разработката на течности за охлаждане чрез потапяне, като проектът се развива заедно с партньора ѝ Submer. Центърът ще дава възможност на клиенти и други партньори да разглеждат, тестват и валидират разработените идеи. Сред тях са и системите SmartPod и MicroPod на Submer, заедно с новите течности. Усилията на Castrol са насочени и към „улавянето“ и повторното използване на топлината от центровете за данни, не само тя да бъде отведена далеч от хардуера. „Центровете за данни, които се охлаждат чрез потапяне, предлагат големи предимства за производителността и значително намаляване на прахосаната енергия за охлаждане.

Заедно, Submer и Castrol, искат да предложат устойчиви решения на фона на увеличаващите се нужди от компютърна мощ“, казва пред DataCenterDynamics Ребека Йейтс, вицепрезидент на BP и ръководител на технологичните решения за индустриални продукти. Водата и диелектричните течности са добър микс Друга компания, OVHcloud, също работи по нови технологии за охлаждане на центрове за данни. Една от тях е хибридно течно охлаждане с диелектрична течност и вода във вертикални запечатани сървърни резервоари.

Накратко, сървърите са напълно потопени в течността. Освен това има и охладителни плочи директно върху графичния и централния процесор, които са с водно охлаждане. Има и класическа серпентина за водните тръби, за да се увеличи максимално площта за охлаждане. На практика това е сървър с водно охлаждане, чийто компоненти и вода се охлаждат от течност. Проектът е защитен с 16 патента и е във фаза на тестове. Разработен е да се помести в стандартен рак и може да съдържа до 48 независимо охлаждани сървъра.

Няма помпи, вентилатори или други компоненти и системата работи напълно безшумно. Освен това може да се използва и за пренос на топлината другаде, тъй като изходната температура може да е до 65 градуса. „Типичното охлаждане чрез потапяне обикновено използва помпи, структури с радиатори, точки за топлообмен, кондензатори и др. Те или използват голямо количество енергия, за да работят и изискват запечатани корпуси, или се нуждаят от голяма площ, което ограничава мястото за инсталиране на още сървъри“, казва Али Шехад, директор на проучванията и разработките в сферата на охлаждането на OVHcloud.

Компанията твърди, че новият дизайн ще намали консумацията на енергия с до 20% годишно за всеки сървър в сравнение с въздушно охлаждане и с до 7% спрямо конвенционално течно охлаждане. Обаче ще мине време преди технологията да достигне до центровете за данни. Компанията все още работи по „отварянето“ на част от технологията за всички, а освен това иска допълнително да я усъвършенства преди да я пусне на пазара. Охлаждането на центровете за данни определено е динамична ниша.

Множество нови технологии и идеи се състезават и това трябва да е така. Натоварването върху дейта центровете ще продължи да се увеличава със скоростно темпо и всяко подобрение в охлаждането и устойчивостта е повече от добре дошло.

Системата за охлаждане, която се използва в дейта центровете на Neterra.Cloud например е на принципа „free cooling“. Това значи, че когато температурата навън падне под определени градуси, за охлаждане се използва студеният въздух отвън, вместо той да се генерира с компресори. Тази система консумира по-малко електроенергия.

От една страна, така се прилагат мерки за предпазване на околната среда, а от друга – оптимизират се разходите както на Neterra.Cloud, така и на нейните клиенти. Огромна част от цената на услугата „колокация“ в дейта центровете, а също и на облачните, и на физическите сървъри, е именно разходът на електроенергия, поради това и мерките в тази посока имат голям ефект.

3 отговори на “Да се охладим: актуалните тенденции в охлаждането на центровете за данни”

หวยลาว แม่น ๆ

… [Trackback]

[…] Read More on on that Topic: blog.neterra.cloud/bg/да-се-охладим-актуалните-тенденции-в-о/ […]

รับเขียนโปรแกรม

… [Trackback]

[…] Here you will find 94622 additional Information on that Topic: blog.neterra.cloud/bg/да-се-охладим-актуалните-тенденции-в-о/ […]

LSM99LIVE เว็บตรงของแท้ อันดับ 1

… [Trackback]

[…] Read More on that Topic: blog.neterra.cloud/bg/да-се-охладим-актуалните-тенденции-в-о/ […]

Вашият коментар

Вашият имейл адрес няма да бъде публикуван.