Когда компьютер работает, он выделяет тепло. Чем выше производительность, тем больше энергии уходит в нагрев. Если тепло не отвести, компоненты перегреются, и система начнёт снижать частоты (троттлинг) или вовсе выключится. Поэтому охлаждение — это не мелочь, а фундаментальная часть архитектуры компьютера.
В первых ПК кулеров не было вовсе. Процессоры вроде Intel 8086 или 80286 грелись так мало, что им хватало пассивного радиатора. Когда появились 486 и Pentium, температуру стало сложнее удерживать, и на радиаторы начали ставить маленькие вентиляторы. В суперкомпьютерах пошли дальше: легендарный Cray-2 (1985) охлаждался жидкостью Fluorinert, потому что десятки модулей выделяли колоссальное количество тепла. Сегодня мы вернулись к тем же идеям, но уже массово: жидкостное охлаждение становится нормой не только в дата-центрах, но и в домашних компьютерах.
Но времена изменились: с ростом мощности процессоров простых радиаторов стало мало. Так в компьютерах появились кулеры и вентиляторы, а позже целые системы охлаждения.
В обычных ПК применяется воздушное охлаждение. В корпусе организуют поток воздуха: холодный заходит спереди и снизу, горячий выходит сзади и сверху. Для CPU ставят кулер с тепловыми трубками и вентилятором, для GPU — массивные радиаторы с двумя или тремя вентиляторами. Эффективность зависит не только от самих кулеров, но и от корпуса: если воздух не циркулирует, компоненты перегреваются даже с мощным охлаждением.
Если в домашних ПК достаточно пары вентиляторов и кулера, то в серверах подход другой. Здесь речь идёт о круглосуточной работе и нагрузках в десятки раз выше.
В серверах подход иной. Там компактные турбинные вентиляторы прогоняют воздух вдоль всей платы, охлаждая процессоры, память, диски и ускорители. Стойки выстраиваются рядами: «холодный коридор» подаёт свежий воздух, «горячий коридор» выводит отработанный. Для дата-центров это критично: при нагрузке в десятки киловатт обычный кондиционер не справится, нужна система климат-контроля всего зала. Когда тепловыделение слишком велико, серверы переводят на прямое жидкостное охлаждение (DLC), а иногда погружают целиком в диэлектрическую жидкость (иммерсионное охлаждение).
Системный уровень важен, но у каждого элемента свои особенности нагрева. Чтобы понять общую картину, нужно посмотреть на процессор, видеокарту, память и накопители отдельно.
Каждый компонент требует своего подхода. CPU может выделять от 65 до 250 Вт тепла, поэтому используется башенный кулер, СЖО или водоблок. GPU в игровых системах нагревается до 350–400 Вт, в серверных решениях ещё больше. Там применяют пассивные радиаторы, которые работают только в мощном потоке воздуха, или жидкостное охлаждение. RAM тоже выделяет тепло: модули DDR5 в серверах обязательно обдуваются турбинами, а в ПК на планках ставят простые радиаторы. HDD и SSD чувствительны к перегреву: у жёстких дисков повышается риск ошибок, у NVMe-накопителей снижается скорость. Поэтому в серверах их ставят в корзины с обдувом или снабжают радиаторами. Даже блок питания греется: в нём вентилятор выдувает горячий воздух, а в серверных БП предусмотрена защита от перегрева и возможность горячей замены.
Даже идеально спроектированное охлаждение теряет эффективность, если забыть о мелочах. Именно они часто становятся причиной перегрева.
Важную роль играют термопаста и термопрокладки. От их качества и правильного нанесения зависит эффективность отвода тепла. Пыль снижает эффективность радиаторов и вентиляторов, поэтому ПК нужно чистить, а в дата-центрах ставят фильтры. В домашних сборках ценят тишину, поэтому используют большие вентиляторы с низкими оборотами. В серверах шум не имеет значения, зато важна устойчивость к вибрациям: сильные колебания могут повредить жёсткие диски.
Когда воздух перестаёт справляться, инженеры идут дальше. На смену вентилятору приходят жидкость и даже специальные диэлектрические ванны.
Современные системы охлаждения — это не просто вентиляторы. Это целая инфраструктура. В дата-центрах до половины электроэнергии уходит на кондиционирование. Поэтому компании ищут новые решения: строят центры на севере, охлаждают сервера морской водой, разрабатывают стойки под иммерсионные технологии. Всё это становится частью экономики вычислений: чем эффективнее охлаждение, тем дешевле и стабильнее сервис.
Но охлаждение — это не только инженерная задача. Оно напрямую влияет на экономику: половина электроэнергии в дата-центрах уходит на поддержание правильной температуры.
Охлаждение — это невидимая, но жизненно важная основа работы компьютеров и серверов. Оно определяет, сможет ли железо работать на заявленных частотах, как долго прослужат компоненты и сколько будет стоить эксплуатация всей системы. Для домашнего пользователя это вопрос правильного корпуса и кулера, для администратора — организация потоков в стойке, для дата-центра — климат и инженерная инфраструктура.
Понять теорию — одно, но важно закрепить её практикой. Самый простой шаг — следить за температурами с помощью утилит вроде HWMonitor, nvidia-smi
или IPMI в серверах. Если процессор или GPU работают на границе допустимого, значит, охлаждение недостаточно. Вовремя добавить вентилятор, сменить термопасту или обновить систему охлаждения — это не роскошь, а необходимость для стабильной работы.
Для полного доступа к курсу нужен базовый план
Базовый план откроет полный доступ ко всем курсам, упражнениям и урокам Хекслета, проектам и пожизненный доступ к теории пройденных уроков. Подписку можно отменить в любой момент.