Зарегистрируйтесь, чтобы продолжить обучение

GPU и его задач Основы ЭВМ

Когда мы говорим о выводе картинки на экран, обычно представляем процессор, который всё считает и рисует. Но современный компьютер устроен иначе. За работу с изображениями отвечает отдельный компонент — графический процессор, или GPU (Graphics Processing Unit). Он появился потому, что у процессора есть предел: он хорошо справляется с последовательными вычислениями, но плохо с огромным количеством одинаковых операций, которые нужно выполнить сразу.

Графический процессор решает именно эту задачу. Его архитектура построена так, чтобы обрабатывать тысячи маленьких операций параллельно. Когда на экране нужно отобразить трёхмерную сцену, каждую точку изображения — пиксель — надо рассчитать по формулам: учесть освещение, цвет поверхности, тень, отражение. Для процессора это тяжёлая работа, а для GPU — естественная. Он делит задачу на тысячи кусков и обрабатывает их одновременно.

Такая способность к параллельным вычислениям сделала GPU полезным не только для игр.

Задачи графического процессора не ограничиваются играми и картинками. Он используется в научных вычислениях, машинном обучении, анализе данных. В этих областях тоже нужно выполнять огромное количество однотипных операций. Например, при обучении нейронной сети миллионы чисел перемножаются и суммируются. GPU делает это быстрее, чем CPU, потому что умеет параллелить работу.

Но прежде чем понять, каким стал современный GPU, полезно посмотреть, с чего всё начиналось.

История видеокарт началась задолго до того, как мы привыкли к современным GPU. Первые персональные компьютеры не имели графики в привычном смысле — они выводили только текст. Экран работал как «электронная печатная машинка»: буквы появлялись символами, а за их отображение отвечал простейший видеоадаптер. В 1981 году у IBM PC был стандарт MDA (Monochrome Display Adapter), который умел показывать только текст в одном цвете.

Затем появились первые «цветные» адаптеры. В 1981 году это CGA (Color Graphics Adapter) — уже 4 цвета и примитивная графика. В 1984 году вышел EGA (Enhanced Graphics Adapter) — до 16 цветов и более высокое разрешение. Но всё это были именно адаптеры — устройства для вывода изображения, без серьёзных вычислений.

Эти шаги в сторону графики подготовили почву для настоящего прорыва.

Настоящая революция случилась в 1987 году с VGA (Video Graphics Array) от IBM. Она стала стандартом, обеспечила 256 цветов и разрешение 640×480. Все современные компьютеры и мониторы в итоге выросли из VGA.

В 90-е компьютеры начали активно использоваться для игр и мультимедиа. Появились первые 2D-ускорители, которые брали на себя отрисовку окон, спрайтов и шрифтов. Но прорыв случился с 3D-графикой. В 1996–1997 годах фирма 3dfx выпустила легендарные ускорители Voodoo, которые впервые показали качественную трёхмерную картинку в играх. Тогда же начали развиваться конкуренты: NVIDIA (RIVA TNT) и ATI (будущая AMD, линейка Rage).

Этот этап вывел видеокарты на новый уровень — из «адаптеров для дисплея» они стали превращаться в самостоятельные процессоры.

В 1999 году NVIDIA представила GeForce 256 и назвала его «первым в мире GPU». Он умел не только рисовать картинку, но и выполнять часть вычислений — трансформации и освещение (T&L). Это был переход от «видеокарт как дисплейных адаптеров» к полноценным графическим процессорам.

С начала 2000-х видеокарты стали эволюционировать вместе с играми: всё больше ядер, поддержка программируемых шейдеров, работа с текстурами и эффектами. NVIDIA развивала линейку GeForce, ATI — Radeon. В 2006 году NVIDIA представила технологию CUDA, которая позволила использовать GPU не только для игр, но и для научных вычислений. С этого момента началась эпоха GPGPU (General Purpose GPU) — универсальных вычислений на видеокартах.

Сегодня видеокарты — это уже не просто устройства для игр. Они стоят в суперкомпьютерах, дата-центрах, серверных фермах для обучения нейросетей. Но всё началось с очень простого: от текстового вывода MDA → до цветного VGA → до первых 3D-ускорителей Voodoo → и «первого GPU» GeForce 256.

Понять значение GPU легче, если сравнить его с центральным процессором.

Архитектура GPU отличается от CPU. В центральном процессоре несколько мощных ядер, каждое способно выполнять сложные инструкции. В графическом — сотни или тысячи более простых ядер, заточенных под массовые вычисления. Можно провести аналогию: CPU — это бригада мастеров-универсалов, которые делают разные задачи по очереди. GPU — это армия рабочих, каждый из которых выполняет простое действие, но вместе они справляются с огромным объёмом за короткое время.

Чтобы такая армия работала слаженно, ей нужны инструменты и ресурсы.

Чтобы использовать GPU, нужны специальные программы и драйверы. Видеокарта имеет собственную память (VRAM), куда загружаются текстуры, модели и данные для расчётов. GPU обрабатывает эти данные и формирует изображение в видеопамяти. Затем результат отправляется на монитор. Поэтому современные видеокарты — это не просто дополнение к системе, а полноценные вычислительные устройства со своей архитектурой, памятью и драйверами.

Если бы не GPU, компьютер с трудом справлялся бы с современными играми, графикой и многими задачами в науке. GPU стал универсальным инструментом для всего, где нужно много параллельных вычислений: от трёхмерной графики до искусственного интеллекта.

Но чтобы осознанно выбирать видеокарту, нужно уметь читать её характеристики.

Когда человек выбирает видеокарту, он видит длинный список параметров: частоты, количество ядер, шина памяти, тип охлаждения, интерфейсы. Чтобы разобраться, нужно понимать, что именно стоит за каждым пунктом.

Графический процессор и архитектура. Видеокарта строится на основе GPU — графического процессора. У AMD это линейки Radeon (RDNA 2, 3, 4), у NVIDIA — GeForce RTX (Ampere, Ada Lovelace, Blackwell). Архитектура задаёт набор технологий: поддержку трассировки лучей, работу с ИИ, энергоэффективность. При сравнении важно смотреть не только на модель, но и на поколение архитектуры: новое поколение при схожих частотах и числе блоков обычно быстрее и экономичнее.

Архитектура задаёт основу, но важна и скорость работы самого чипа.

Частоты работы GPU. У каждой карты есть базовая и турбочастота. Базовая — это гарантированная минимальная скорость, буст — максимально возможная при хорошем охлаждении. В реальности производительность зависит от того, как долго карта удерживает буст. Поэтому простое сравнение «у этой 3000 МГц, у другой 2600 МГц» не всегда отражает реальную картину.

Частота показывает скорость, но не количество рабочих блоков.

Количество вычислительных блоков. У AMD это потоковые процессоры (ALU), у NVIDIA — CUDA-ядра. Чем их больше, тем выше потенциал параллельных вычислений. Но сравнивать «4096 против 10752» напрямую нельзя, потому что внутри разных архитектур одно ядро может выполнять разные объёмы работы. Здесь лучше ориентироваться на тесты и бенчмарки.

Кроме универсальных ядер, современные GPU содержат и специализированные блоки.

Специализированные блоки. В современных GPU есть RT-ядра для трассировки лучей и тензорные ядра для ИИ-вычислений (например, DLSS у NVIDIA). У AMD RT-блоки есть, но тензорных ядер нет, поэтому их апскейлинг FSR работает иначе. При выборе карты под игры с трассировкой или под ML-задачи стоит учитывать именно наличие этих блоков.

Чтобы эти блоки работали, GPU нужно снабдить данными. Здесь всё упирается в память.

Видеопамять. Это ключевой параметр. Объём памяти (8, 12, 16, 24 ГБ и больше) определяет, сколько текстур и данных GPU может держать сразу. Для игр в 1080p хватает 8–12 ГБ, для 4K — лучше 16 ГБ и выше. Тип памяти (GDDR6, GDDR6X, GDDR7, HBM) влияет на скорость передачи данных. GDDR7 быстрее GDDR6, HBM ещё быстрее, но дороже и используется в серверных GPU.

Но важен не только объём памяти, а и то, как она подключена к GPU.

Шина памяти и пропускная способность. Шина — это ширина канала между GPU и памятью, измеряется в битах (128, 192, 256, 384). Чем она шире, тем больше данных передаётся за такт. Но важнее итоговая пропускная способность: шина × частота × эффективность. Например, RTX 5080 с 256-битной шиной и GDDR7 даёт почти 960 ГБ/с — больше, чем многие старые карты с 384-битной шиной. У AMD добавляется Infinity Cache — внутренний кэш, который компенсирует узкую шину и повышает эффективность.

Когда GPU посчитал картинку, её нужно вывести на экран.

Вывод изображения. Разъёмы (HDMI, DisplayPort) определяют, сколько и какие мониторы можно подключить. Версии интерфейсов важны: HDMI 2.1 позволяет выводить 4K 120 Гц или 8K, DisplayPort 2.1 поддерживает ещё более высокие частоты и разрешения. Если нужен игровой монитор 4K 144 Гц — без новых интерфейсов не обойтись.

Связь GPU с системой идёт через интерфейс материнской платы.

Интерфейс подключения к материнке. Сегодня это PCI Express (PCIe). Современные карты используют PCIe 4.0 или 5.0, всегда в формате x16. На практике даже PCIe 4.0 редко становится узким местом, но в будущем для самых быстрых SSD и GPU PCIe 5.0 даст запас.

Но мощность и скорость всегда связаны с энергией.

Энергопотребление и питание. У карт есть TDP (потребляемая мощность) и рекомендации к блоку питания. Например, карта на 330 Вт требует БП минимум на 750 Вт. Современные карты используют новый 16-pin разъём (12V-2x6), но в комплекте обычно есть переходники под старые 8-pin. При выборе важно учитывать запас по мощности и качество блока питания.

Чтобы отвести это тепло, нужна система охлаждения.

Охлаждение и форм-фактор. Карты бывают двух- и трёхслотовые, длиной до 35 см. Если корпус маленький, большая карта может просто не влезть. Охлаждение бывает воздушное (с вентиляторами), турбинное (для серверов и компактных корпусов) и жидкостное. Трёхвентиляторные системы тише и эффективнее, но занимают больше места.

А дальше идут особенности, которые не влияют на производительность, но делают использование карты удобнее.

Дополнительные особенности. Подсветка RGB, переключатели BIOS, тихие режимы («0 децибел» — вентиляторы выключены в простое) — это уже удобства. Для учебных задач важно понимать: эти функции не влияют на вычислительную мощность, но делают использование карты комфортнее.

Однако видеокарты бывают разными не только по характеристикам, но и по назначению.

Когда речь идёт о видеокартах, важно понимать: они делятся на сегменты. Игровые модели — это GeForce у NVIDIA и Radeon у AMD. Они заточены под игры, мультимедиа и повседневные задачи. Профессиональные карты — это NVIDIA RTX A-серии (бывшие Quadro) и AMD Radeon Pro. У них драйверы оптимизированы под CAD, 3D-моделирование, визуализацию, сертифицированы под AutoCAD, Maya, SolidWorks. Есть и серверные GPU: NVIDIA A100, H100, AMD Instinct MI-серии. Они рассчитаны на машинное обучение, суперкомпьютеры, большие базы данных. Главное отличие — надёжность (ECC-память, поддержка виртуализации, круглосуточная работа) и очень большой объём памяти. Понимание сегментов помогает сразу отделить «игровой ПК» от «рабочей станции» и «дата-центра».

Чтобы GPU реализовал свои возможности, важен не только «железный» уровень, но и программный.

Работа GPU раскрывается через программное обеспечение. В играх это API: DirectX, Vulkan, OpenGL. Они задают правила, как приложение обращается к GPU. Современные проекты переходят на DirectX 12 и Vulkan, где ресурсы управляются эффективнее. В вычислительных задачах у NVIDIA есть CUDA — собственная платформа для параллельных вычислений. Благодаря ей почти все библиотеки машинного обучения и нейросетей «заточены» под NVIDIA. У AMD аналогом является ROCm, но поддержка софта там меньше. Отсюда практический вывод: для игр и графики подойдёт и AMD, и NVIDIA, а вот для ML почти всегда выбирают NVIDIA из-за CUDA.

Но у любой видеокарты есть главный ресурс — память.

Видеопамять — это отдельная тема. В отличие от системной RAM, VRAM работает рядом с GPU и хранит данные, нужные для графики: текстуры, геометрию, кадры. Если памяти мало, игра не сможет загрузить текстуры высокого разрешения, и картинка потеряет детализацию. Объём VRAM зависит от задач: 8–12 ГБ хватает для Full HD, 16 ГБ — комфортно для 4K и VR, 24–48 ГБ нужны для тяжёлых рабочих сцен и больших ML-моделей. Тип памяти тоже важен: GDDR6 и GDDR7 — стандарт для игр, GDDR6X быстрее, но горячее, а HBM используется в серверных GPU и даёт колоссальную пропускную способность.

Характеристики видеокарты часто сопровождаются и числовыми метриками.

Характеристики GPU часто сопровождаются метриками производительности. FLOPS (операции с плавающей точкой в секунду) измеряют «сырую» вычислительную мощь. Сегодня карты достигают десятков терафлопс (TFLOPS). Но это теоретическая цифра: реальная производительность зависит от архитектуры и драйверов. Для игр чаще используют FPS (кадры в секунду) — именно он показывает, насколько плавной будет картинка. TDP (тепловой пакет) отражает энергопотребление и требования к охлаждению. Важно помнить: TFLOPS дают представление о мощности, FPS показывает реальный результат в играх, а TDP помогает оценить энергозатраты и выбрать подходящий блок питания.

Но не всегда для вывода изображения нужна дискретная видеокарта.

Не всегда видеокарта — это отдельная плата с огромным кулером и подсветкой. У многих процессоров есть встроенный графический процессор, или iGPU (integrated GPU). Он живёт прямо на одном кристалле с центральным процессором. Задача такого GPU — брать на себя простые графические операции: вывод рабочего стола, видео, лёгкие игры, ускорение браузера.

Главное отличие встроенного GPU от дискретного в том, что у него нет своей памяти. Он использует системную оперативную память (RAM). Поэтому производительность напрямую зависит от её объёма и скорости. Например, если в системе стоит 8 ГБ медленной памяти, встроенной графике будет тяжело обрабатывать тяжёлое видео или 3D-сцену. Когда ставят быструю память DDR5 и в большом объёме, iGPU начинает работать заметно лучше.

То, что встроенный GPU использует общую память, делает его дешевле и экономичнее, но и накладывает ограничения.

У Intel встроенные графические ядра называются Intel UHD или Iris Xe, у AMD — Radeon Graphics в линейке Ryzen. По сути это урезанные версии обычных GPU, адаптированные под меньшие размеры и энергопотребление. Они не тянут современные игры в 4K, но позволяют комфортно работать, смотреть видео в 8K, запускать простые 3D-проекты.

Эти возможности особенно ценны там, где важна простота и надёжность.

Встроенный GPU полезен и в серверах. Он нужен для того, чтобы сервер мог выводить картинку без дискретной видеокарты: например, BIOS, консоль или диагностику. В рабочих станциях встроенный GPU часто становится страховкой: если дискретная видеокарта выйдет из строя, система всё равно запустится.

Такое разделение ролей помогает понять, где встроенный GPU уместен, а где без дискретной карты не обойтись.

Важно понимать разницу в назначении. Дискретная видеокарта создана для тяжёлых задач: игр, рендера, машинного обучения. Встроенный GPU — это решение «чтобы всё работало из коробки» и не требовало отдельной карты. Современные iGPU становятся всё мощнее: например, последние AMD Ryzen с RDNA-графикой позволяют играть даже в современные проекты на средних настройках, если использовать быструю память.

Для полного доступа к курсу нужен базовый план

Базовый план откроет полный доступ ко всем курсам, упражнениям и урокам Хекслета, проектам и пожизненный доступ к теории пройденных уроков. Подписку можно отменить в любой момент.

Получить доступ
1000
упражнений
2000+
часов теории
3200
тестов

Открыть доступ

Курсы программирования для новичков и опытных разработчиков. Начните обучение бесплатно

  • 130 курсов, 2000+ часов теории
  • 1000 практических заданий в браузере
  • 360 000 студентов
Отправляя форму, вы принимаете «Соглашение об обработке персональных данных» и условия «Оферты», а также соглашаетесь с «Условиями использования»

Наши выпускники работают в компаниях:

Логотип компании Альфа Банк
Логотип компании Aviasales
Логотип компании Yandex
Логотип компании Tinkoff