Зарегистрируйтесь, чтобы продолжить обучение

Система охлаждения Основы ЭВМ

Когда компьютер работает, он выделяет тепло. Чем выше производительность, тем больше энергии уходит в нагрев. Если тепло не отвести, компоненты перегреются, и система начнёт снижать частоты (троттлинг) или вовсе выключится. Поэтому охлаждение — это не мелочь, а фундаментальная часть архитектуры компьютера.

В первых ПК кулеров не было вовсе. Процессоры вроде Intel 8086 или 80286 грелись так мало, что им хватало пассивного радиатора. Когда появились 486 и Pentium, температуру стало сложнее удерживать, и на радиаторы начали ставить маленькие вентиляторы. В суперкомпьютерах пошли дальше: легендарный Cray-2 (1985) охлаждался жидкостью Fluorinert, потому что десятки модулей выделяли колоссальное количество тепла. Сегодня мы вернулись к тем же идеям, но уже массово: жидкостное охлаждение становится нормой не только в дата-центрах, но и в домашних компьютерах.

Но времена изменились: с ростом мощности процессоров простых радиаторов стало мало. Так в компьютерах появились кулеры и вентиляторы, а позже целые системы охлаждения.

В обычных ПК применяется воздушное охлаждение. В корпусе организуют поток воздуха: холодный заходит спереди и снизу, горячий выходит сзади и сверху. Для CPU ставят кулер с тепловыми трубками и вентилятором, для GPU — массивные радиаторы с двумя или тремя вентиляторами. Эффективность зависит не только от самих кулеров, но и от корпуса: если воздух не циркулирует, компоненты перегреваются даже с мощным охлаждением.

Если в домашних ПК достаточно пары вентиляторов и кулера, то в серверах подход другой. Здесь речь идёт о круглосуточной работе и нагрузках в десятки раз выше.

В серверах подход иной. Там компактные турбинные вентиляторы прогоняют воздух вдоль всей платы, охлаждая процессоры, память, диски и ускорители. Стойки выстраиваются рядами: «холодный коридор» подаёт свежий воздух, «горячий коридор» выводит отработанный. Для дата-центров это критично: при нагрузке в десятки киловатт обычный кондиционер не справится, нужна система климат-контроля всего зала. Когда тепловыделение слишком велико, серверы переводят на прямое жидкостное охлаждение (DLC), а иногда погружают целиком в диэлектрическую жидкость (иммерсионное охлаждение).

Системный уровень важен, но у каждого элемента свои особенности нагрева. Чтобы понять общую картину, нужно посмотреть на процессор, видеокарту, память и накопители отдельно.

Каждый компонент требует своего подхода. CPU может выделять от 65 до 250 Вт тепла, поэтому используется башенный кулер, СЖО или водоблок. GPU в игровых системах нагревается до 350–400 Вт, в серверных решениях ещё больше. Там применяют пассивные радиаторы, которые работают только в мощном потоке воздуха, или жидкостное охлаждение. RAM тоже выделяет тепло: модули DDR5 в серверах обязательно обдуваются турбинами, а в ПК на планках ставят простые радиаторы. HDD и SSD чувствительны к перегреву: у жёстких дисков повышается риск ошибок, у NVMe-накопителей снижается скорость. Поэтому в серверах их ставят в корзины с обдувом или снабжают радиаторами. Даже блок питания греется: в нём вентилятор выдувает горячий воздух, а в серверных БП предусмотрена защита от перегрева и возможность горячей замены.

Даже идеально спроектированное охлаждение теряет эффективность, если забыть о мелочах. Именно они часто становятся причиной перегрева.

Важную роль играют термопаста и термопрокладки. От их качества и правильного нанесения зависит эффективность отвода тепла. Пыль снижает эффективность радиаторов и вентиляторов, поэтому ПК нужно чистить, а в дата-центрах ставят фильтры. В домашних сборках ценят тишину, поэтому используют большие вентиляторы с низкими оборотами. В серверах шум не имеет значения, зато важна устойчивость к вибрациям: сильные колебания могут повредить жёсткие диски.

Когда воздух перестаёт справляться, инженеры идут дальше. На смену вентилятору приходят жидкость и даже специальные диэлектрические ванны.

Современные системы охлаждения — это не просто вентиляторы. Это целая инфраструктура. В дата-центрах до половины электроэнергии уходит на кондиционирование. Поэтому компании ищут новые решения: строят центры на севере, охлаждают сервера морской водой, разрабатывают стойки под иммерсионные технологии. Всё это становится частью экономики вычислений: чем эффективнее охлаждение, тем дешевле и стабильнее сервис.

Но охлаждение — это не только инженерная задача. Оно напрямую влияет на экономику: половина электроэнергии в дата-центрах уходит на поддержание правильной температуры.

Охлаждение — это невидимая, но жизненно важная основа работы компьютеров и серверов. Оно определяет, сможет ли железо работать на заявленных частотах, как долго прослужат компоненты и сколько будет стоить эксплуатация всей системы. Для домашнего пользователя это вопрос правильного корпуса и кулера, для администратора — организация потоков в стойке, для дата-центра — климат и инженерная инфраструктура.

Понять теорию — одно, но важно закрепить её практикой. Самый простой шаг — следить за температурами с помощью утилит вроде HWMonitor, nvidia-smi или IPMI в серверах. Если процессор или GPU работают на границе допустимого, значит, охлаждение недостаточно. Вовремя добавить вентилятор, сменить термопасту или обновить систему охлаждения — это не роскошь, а необходимость для стабильной работы.

Для полного доступа к курсу нужен базовый план

Базовый план откроет полный доступ ко всем курсам, упражнениям и урокам Хекслета, проектам и пожизненный доступ к теории пройденных уроков. Подписку можно отменить в любой момент.

Получить доступ
1000
упражнений
2000+
часов теории
3200
тестов

Открыть доступ

Курсы программирования для новичков и опытных разработчиков. Начните обучение бесплатно

  • 130 курсов, 2000+ часов теории
  • 1000 практических заданий в браузере
  • 360 000 студентов
Отправляя форму, вы принимаете «Соглашение об обработке персональных данных» и условия «Оферты», а также соглашаетесь с «Условиями использования»

Наши выпускники работают в компаниях:

Логотип компании Альфа Банк
Логотип компании Aviasales
Логотип компании Yandex
Логотип компании Tinkoff