В чем отличие CPU от GPU. Центральный и графический процессор Графический процессор карты

Исходным материалом для рендеринга является множество треугольников различного размера, из которых складываются все объекты виртуального мира: пейзаж, игровые персонажи, монстры, оружие и т.д. Однако сами по себе модели, созданные из треугольников, выглядят как проволочные каркасы. Поэтому на них накладываются текстуры - цветные двухмерные «обои». И текстуры, и модели помещаются в память графической карты, а дальше, при создании каждого кадра игрового действия выполняется цикл рендеринга, состоящий из нескольких этапов.

1. Игровая программа отправляет графическому процессору информацию, описывающую игровую сцену: состав присутствующих объектов, их окраску, положение относительно точки наблюдения, освещение и видимость. Передаются и дополнительные данные, характеризующие сцену и позволяющую видеокарте увеличить реалистичность получаемого изображения, добавив туман, размытие, блики и т.д.

2. Графический процессор располагает трехмерные модели в кадре, определяет, какие из входящих в них треугольников находятся на виду и отсекает скрытые другими объектами или, например, тенями.

Затем создаются источники света и определяется их влияние на цвет освещаемых объектов. Этот этап рендеринга называется «трансформация и освещение» (T&L - Transformation & Lighting).

3. На видимые треугольники накладываются текстуры с применением различных технологий фильтрации. Билинейная фильтрация предусматривает наложение на треугольник двух версий текстуры с различным разрешением. Результатом ее использования являются хорошо различимые границы между областями четких и размытых текстур, возникающие на трехмерных поверхностях перпендикулярно направлению обзора. Трилинейная фильтрация, использующая три варианта одной текстуры, позволяет создать более мягкие переходы.

Однако в результате использования обеих технологий по-настоящему четко выглядят лишь те текстуры, которые расположены перпендикулярно к оси зрения. При взгляде под углом они сильно размываются. Для того чтобы это предотвратить, используется анизотропная фильтрация.

Такой метод фильтрации текстур задается в настройках драйвера видеоадаптера либо непосредственно в компьютерной игре. Кроме того, можно изменять силу анизотропной фильтрации: 2х, 4х, 8х или 16х - чем больше «иксов», тем более четкими будут изображения на наклонных поверхностях. Но при увеличении силы фильтрации возрастает нагрузка на видеокарту, что может привести к снижению скорости работы и к уменьшению количества кадров, генерируемых в единицу времени.

На этапе текстурирования могут использоваться различные дополнительные эффекты. Например, наложение карт среды (Enironmental Mapping) позволяет создавать поверхности, в которых будет отражаться игровая сцена: зеркала, блестящие металлические предметы и т.д. Другой впечатляющий эффект получается с применением карт неровностей (Bump Mapping), благодаря которому свет, падающий на поверхность под углом, создает видимость рельефа.
Текстурирование является последним этапом рендеринга, после которого картинка попадает в кадровый буфер видеокарты и выводится на экран монитора.

Электронные компоненты видеокарты

Теперь, когда стало понятно, каким образом происходит процесс построения трехмерного изображения, можно перечислить технические характеристики компонентов видеокарты, которые определяют скорость процесса. Главными составными частями видеокарты являются графический процессор (GPU - Graphics Processing Unit) и видеопамять.

Графический процессор

Одной из основных характеристик этого компонента (как и центрального процессора ПК), является тактовая частота. При прочих равных условиях, чем она выше, тем быстрее происходит обработка данных, а следовательно - увеличивается количество кадров в секунду (FPS - frames per second) в компьютерных играх. Частота графического процессора - важный, но не единственный, влияющий на его производительность параметр - современные модели производства Nvidia и ATI, имеющие сопоставимый уровень быстродействия, характеризуются различными частотами GPU.

Для адаптеров Nvidia, обладающих высокой производительностью, характерны тактовые частоты GPU от 550 МГц до 675 МГц. Частоту работы графического процессора меньше 500 МГц имеют «середнячки» и дешевые низкопроизводительные карты.
В то же время GPU «топовых» карт производства ATI имеют частоты от 600 до 800 МГц, и даже у самых дешевых видеоадаптеров частота графического процессора не опускается ниже 500 МГц.

Однако, несмотря на то, что графические процессоры Nvidia обладают меньшей частотой, чем GPU, разработанные ATI, они обеспечивают, по крайней мере, такой же уровень производительности, а зачастую - и более высокий. Дело в том, что не меньшее значение, чем тактовая частота, имеют другие характеристики GPU.

1. Количество текстурных модулей (TMU - Texture Mapping Units) - элементов графического процессора, выполняющих наложение текстур на треугольники. От количества TMU напрямую зависит скорость построения трехмерной сцены.
2. Количество конвейеров рендеринга (ROP - Render Output Pipeline) - блоков, выполняющих «сервисные» функции (пару примеров, pls). В современных графических процессорах ROP, как правило, меньше, чем текстурных модулей, и это ограничивает общую скорость текстурирования. К примеру, чип видеокарты Nvidia GeForce 8800 GTX имеет 32 «текстурника» и 24 ROP. У процессора видеокарты ATI Radeon HD 3870 только 16 текстурных моделей и 16 ROP.

Производительность текстурных модулей выражается в такой величине как филлрейт - скорость текстурирования, измеряемая в текселах за секунду. Видеокарта GeForce 8800 GTX имеет филлрейт в 18,4 млрд текс/с. Но более объективным показателем является филлрейт, измеряемый в пикселах, так как он отражает скорость работы ROP. У GeForce 8800 GTX эта величина равна 13,8 млрд пикс./с.
3. Количество шейдерных блоков (шейдерных процессоров), которые - как следует из названия - занимаются обработкой пиксельных и вершинных шейдеров. Современные игры активно используют шейдеры, так что количество шейдерных блоков имеет решающее значение для определения производительности.

Не так давно графические процессоры имели отдельные модули для выполнения пиксельных и вершинных шейдеров. Видеокарты Nvidia серии GeForce 8000 и адаптеры ATI Radeon HD 2000 первыми перешли на унифицированную шейдерную архитектуру. Графические процессоры этих карт имеют блоки, способные обрабатывать как пиксельные, так и вершинные шейдеры - универсальные шейдерные процессоры (потоковые процессоры). Такой подход позволяет полностью задействовать вычислительные ресурсы чипа при любом соотношении пиксельных и вершинных расчетов в коде игры. Кроме того, в современных графических процессорах шейдерные блоки часто работают на частоте, превышающей тактовую частоту GPU (например, у GeForce 8800 GTX эта частота составляет 1350 МГц против «общих» 575 МГц).

Обращаем ваше внимание на то, что компании Nvidia и ATI по-разному считают количество шейдерных процессоров в своих чипах. К примеру, Radeon HD 3870 имеет 320 таких блоков, а GeForce 8800 GTX - только 128. На самом деле, ATI указывает вместо целых шейдерных процессоров их составные компоненты. В каждом шейдерном процессоре содержится по пять компонентов, так что общее количество шейдерных блоков у Radeon HD 3870 - всего 64, поэтому и работает эта видеокарта медленнее, чем GeForce 8800 GTX.

Память видео карты

Видеопамять по отношению к GPU выполняет те же функции, что и оперативная память - по отношению к центральному процессору ПК: она хранит весь «строительный материал», необходимый для создания изображения - текстуры, геометрические данные, программы шейдеров и т.д.

Какие характеристики видеопамяти влияют на производительность графической карты

1. Объем. Современные игры используют огромное количество текстур с высоким разрешением, и для их размещения требуется соответствующий объем видеопамяти. Основная масса выпускаемых сегодня «топовых» видеоадаптеров и карт среднего ценового диапазона снабжается 512 Мб памяти, которая не может быть увеличена впоследствии. Более дешевые видеокарты оснащаются вдвое меньшим объемом памяти, для современных игр его уже недостаточно.

В случае нехватки памяти графический процессор вынужден постоянно загружать текстуры из оперативной памяти ПК, связь с которой осуществляется гораздо медленнее, в результате производительность может заметно снижаться. С другой стороны, чрезмерно большой объем памяти может не дать никакого увеличения скорости, так как дополнительное «место» просто не будет использоваться. Покупать видеоадаптер с 1 Гб памяти имеет смысл только в том случае, если он принадлежит к «топовым» продуктам (видеокарты ATI Radeon HD 4870, Nvidia GeForce 9800, а также новейшие карты серии GeForce GTX 200).

2. Частота. Этот параметр у современных видеокарт может изменяться от 800 до 3200 МГц и зависит, в первую очередь, от типа используемых микросхем памяти. Чипы DDR 2 могут обеспечить рабочую частоту в пределах 800 МГц и используются только в самых дешевых графических адаптерах. Память GDDR 3 и GDDR 4 увеличивает частотный диапазон вплоть до 2400 МГц. Новейшие графические карты ATI Radeon HD 4870 используют память GDDR-5 с фантастической частотой - 3200 МГц.

Частота памяти, как и частота графического процессора, оказывает большое влияние на производительность видеокарты в играх, особенно при использовании полноэкранного сглаживания. При прочих равных условиях, чем больше частота памяти, тем выше быстродействие, т.к. графический процессор будет меньше «простаивать» в ожидании поступления данных. Частота памяти в 1800 МГц является нижней границей, отделяющей высокопроизводительные карты от менее быстрых.

3. Разрядность шины видеопамяти гораздо сильнее влияет на общую производительность карты, чем частота памяти. Она показывает, сколько данных может передать память за один такт. Соответственно, двукратное увеличение разрядности шины памяти эквивалентно удвоению ее тактовой частоты. Основная масса современных видеокарт имеют 256-битную шину памяти. Уменьшение разрядности до 128 или, тем более, до 64 бит наносит сильный удар по быстродействию. С другой стороны, в самых дорогих видеокартах шина может быть «расширена» до 512 бит (пока этим может похвастаться лишь новейший GeForce GTX 280), что оказывается весьма кстати, принимая во внимание мощность их графических процессоров.

Где найти информацию о технических характеристиках видеокарты

Если графическая карта обладает некими выдающимися параметрами (высокая тактовая частота процессора и памяти, ее объем), то они, как правило, указываются непосредственно на коробке. Но наиболее полные спецификации видеоадаптеров и GPU, на которых они основаны, можно найти только в Интернете. Общая информация выкладывается на корпоративных сайтах производителей графических процессоров: Nvidia (www.nvidia.ru) и ATI (www.ati.amd.com/ru). Подробности можно узнать на неофициальных веб-сайтах, посвященных видеокартам - www.nvworld.ru и www.radeon.ru. Хорошим подспорьем станет электронная энциклопедия Wikipedia (www.ru.wikipedia.org). Пользователи, покупающие карту с прицелом на разгон могут воспользоваться ресурсом www.overclockers.ru.

Одновременное использование двух видеокарт

Для того чтобы получить максимальную производительность, можно установить в компьютер сразу две видеокарты. Производители предусмотрели для этого соответствующие технологии - SLI (Scalable Link Interface, используется картами Nvidia) и CrossFire (разработка ATI). Для того чтобы воспользоваться ими, материнская плата должна не только иметь два слота PCI-E для видеокарт, но и поддерживать одну из названных технологий. Многие «материнки» на чипсетах Intel могут использовать платы ATI в режиме CrossFire, а вот объединить в одну «упряжку» две (или даже три!) видеокарты производства Nvidia могут лишь платы на чипсетах этой же фирмы. В случае, если материнская плата не обладает поддержкой этих технологий, две видеокарты смогут с ней работать, но в играх будет использоваться только одна, а вторая лишь даст возможность выводить изображение на пару дополнительных мониторов.
Заметим, что использование двух видеокарт не приводит к удвоению производительности. Средний результат, на который стоит рассчитывать - 50% прироста скорости. Кроме того, весь потенциал тандема будет раскрыт лишь при использовании мощного центрального процессора и монитора с высоким разрешением.

Что такое шейдеры

Шейдеры - микропрограммы, присутствующие в коде игры, с помощью которых можно изменять процесс построения виртуальной сцены, открывая возможности, недостижимые при использовании традиционных средств 3D-рендеринга. Современная игровая графика без шейдеров немыслима.

Вершинные шейдеры изменяют геометрию трехмерных объектов, благодаря чему можно реализовать естественную анимацию сложных моделей игровых персонажей, физически корректную деформацию предметов или настоящие волны на воде. Пиксельные шейдеры применяются для изменения цвета пикселей и позволяют создавать такие эффекты, как реалистичные круги и рябь на воде, сложное освещение и рельеф поверхностей. Кроме того, с помощью пиксельных шейдеров осуществляется постобработка кадра: всевозможные «кинематографические» эффекты размытия движущихся объектов, сверхъяркого света и т.д.

Существует несколько версий реализации шейдерной модели (Shader Model). Все современные видеокарты поддерживают пиксельные и вершинные шейдеры версии 4.0, обеспечивающие по сравнению с предыдущей - третьей - версией более высокую реалистичность эффектов. Shader Model 4.0 поддерживается API DirectX 10 , которая работает исключительно в среде Windows Vista. Кроме того, сами компьютерные игры должны быть «заточены» под DirectX 10.

Нужна ли AGP-видеокарта старой системе

Если «материнка» вашего ПК оснащена портом AGP, возможности апгрейда видеокарты сильно ограничены. Максимум, который может себе позволить обладатель такой системы - это видеокарты серии Radeon HD 3850 фирмы AMD (ATI).

По современным меркам, они обладают производительностью ниже среднего. Кроме того, подавляющее большинство материнских плат с поддержкой интерфейса AGP предназначено для устаревших процессоров Intel Pentium 4 и AMD Athlon XP, так что общее быстродействие системы все равно будет недостаточно высоким для современной трехмерной графики. Только на материнские платы для процессоров AMD Ahtlon 64 с разъемом Socket 939 стоит устанавливать новые видеокарты с портом AGP. Во всех остальных случаях лучше купить новый компьютер с интерфейсом PCI-E, памятью DDR 2 (или DDR 3) и современным ЦП.

Теги материала: графическая карта, видео, карта, ускоритель, графики

Диспетчер задач Windows 10 содержит подробные инструменты мониторинга графического процессора (GPU ). Вы можете просматривать использование каждого приложения и общесистемного графического процессора, а Microsoft обещает, что показатели диспетчера задач будут более точными, чем показатели сторонних утилит.

Как это работает

Эти функции графического процессора были добавлены в обновлении Fall Creators для Windows 10 , также известном как Windows 10 версия 1709 . Если вы используете Windows 7, 8 или более старую версию Windows 10, вы не увидите эти инструменты в своем диспетчере задач.

Windows использует более новые функции в Windows Display Driver Model, чтобы извлекать информацию непосредственно из графического процессора (VidSCH) и менеджера видеопамяти (VidMm) в графическом ядре WDDM, которые отвечают за фактическое распределение ресурсов. Он показывает очень точные данные независимо от того, какие приложения API используют для доступа к GPU-Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle или чему-либо еще.

Именно поэтому в диспетчере задач отображаются только системы с совместимыми с WDDM 2.0 графическими процессорами . Если вы этого не видите, графический процессор вашей системы, вероятно, использует более старый тип драйвера.

Вы можете проверить, какая версия WDDM используется вашим драйвером GPU , нажав кнопку Windows+R, набрав в поле «dxdiag », а затем нажмите «Enter », чтобы открыть инструмент «Средство диагностики DirectX ». Перейдите на вкладку «Экран » и посмотрите справа от «Модель » в разделе «Драйверы ». Если вы видите здесь драйвер WDDM 2.x, ваша система совместима. Если вы видите здесь драйвер WDDM 1.x, ваш GPU несовместим.

Как просмотреть производительность графического процессора

Эта информация доступна в диспетчере задач , хотя по умолчанию она скрыта. Чтобы открыть ее, откройте Диспетчер задач , щелкнув правой кнопкой мыши на любом пустом месте на панели задач и выбрав «Диспетчер задач » или нажав Ctrl+Shift+Esc на клавиатуре.

Нажмите кнопку «Подробнее » в нижней части окна «Диспетчер задач », если вы видите стандартный простой вид.

Если GPU не отображается в диспетчере задач , в полноэкранном режиме на вкладке «Процессы » щелкните правой кнопкой мыши любой заголовок столбца, а затем включите опцию «Графический процессор ». Это добавит столбец графического процессора , который позволяет увидеть процент ресурсов графического процессора , используемых каждым приложением.

Вы также можете включить опцию «Ядро графического процессора », чтобы увидеть, какой графический процессор использует приложение.

Общее использование GPU всех приложений в вашей системе отображается в верхней части столбца Графического процессора . Щелкните столбец GPU , чтобы отсортировать список и посмотреть, какие приложения используют ваш GPU больше всего на данный момент.

Число в столбце Графический процессор - это самое высокое использование, которое приложение использует для всех движков. Так, например, если приложение использует 50% 3D-движка GPU и 2% декодирования видео движка GPU, вы просто увидите, что в столбце GPU отображается число 50%.

В столбце «Ядро графического процессора » отображается каждое приложение. Это показывает вам, какой физический GPU и какой движок использует приложение, например, использует ли он 3D-движок или механизм декодирования видео. Вы можете определить, какой графический процессор соответствует определенному показателю, проверив вкладку «Производительность », о которой мы поговорим в следующем разделе.

Как просмотреть использование видеопамяти приложения

Если вам интересно, сколько видеопамяти используется приложением, вам нужно перейти на вкладку «Подробности » в диспетчере задач. На вкладке «Подробности » щелкните правой кнопкой мыши любой заголовок столбца и выберите «Выбрать столбцы ». Прокрутите вниз и включите колонки «Графический процессор », «Ядро графического процессора », « » и « ». Первые два доступны также на вкладке «Процессы », но последние две опции памяти доступны только на панели «Подробности ».

Столбец «Выделенная память графического процессора » показывает, сколько памяти приложение использует на вашем GPU . Если на вашем ПК установлена дискретная видеокарта NVIDIA или AMD, то это часть его VRAM, то есть сколько физической памяти на вашей видеокарте использует приложение. Если у вас встроенный графический процессор , часть вашей обычной системной памяти зарезервирована исключительно для вашего графического оборудования. Это показывает, какая часть зарезервированной памяти используется приложением.

Windows также позволяет приложениям хранить некоторые данные в обычной системной памяти DRAM. Столбец «Общая память графического процессора » показывает, сколько памяти приложение использует в настоящее время для видеоустройств из обычной системной ОЗУ компьютера.

Вы можете щелкнуть любой из столбцов для сортировки по ним и посмотреть, какое приложение использует больше всего ресурсов. Например, чтобы просмотреть приложения, использующие наибольшую видеопамять на вашем графическом процессоре, щелкните столбец «Выделенная память графического процессора ».

Как отследить использование общего ресурса GPU

Чтобы отслеживать общую статистику использования ресурсов GPU , перейдите на вкладку «Производительность » и посмотрите на «Графический процессор » внизу на боковой панели. Если на вашем компьютере несколько графических процессоров, здесь вы увидите несколько вариантов GPU .

Если у вас несколько связанных графических процессоров - используя такую функцию, как NVIDIA SLI или AMD Crossfire, вы увидите их, идентифицированные «#» в их имени.

Windows отображает использование GPU в реальном времени. По умолчанию диспетчер задач пытается отобразить самые интересные четыре движка в соответствии с тем, что происходит в вашей системе. Например, вы увидите разные графики в зависимости от того, играете ли вы в 3D-игры или кодируете видео. Однако вы можете щелкнуть любое из имен над графиками и выбрать любой из других доступных движков.

Название вашего GPU также отображается на боковой панели и в верхней части этого окна, что позволяет легко проверить, какое графическое оборудование установлено на вашем ПК.

Вы также увидите графики использования выделенной и общей памяти GPU . Использование общей памяти GPU относится к тому, какая часть общей памяти системы используется для задач GPU . Эта память может использоваться как для обычных системных задач, так и для видеозаписей.

В нижней части окна вы увидите информацию, такую как номер версии установленного видеодрайвера, дату разработки и физическое местоположение GPU в вашей системе.

Если вы хотите просмотреть эту информацию в более маленьком окне, которое проще оставить на экране, дважды щелкните где-нибудь внутри экрана графического процессора или щелкните правой кнопкой мыши в любом месте внутри него и выберите параметр «Графическая сводка ». Вы можете развернуть окно, дважды щелкнув на панели или щелкнув правой кнопкой мыши в нем и сняв флажок «Графическая сводка ».

Вы также можете щелкнуть правой кнопкой мыши по графику и выбрать «Изменить график »> «Одно ядро », чтобы просмотреть только один график движка GPU .

Чтобы это окно постоянно отображалось на вашем экране, нажмите «Параметры »> «Поверх остальных окон ».

Дважды щелкните внутри панели GPU еще раз, и у вас будет минимальное окно, которое вы можете расположить в любом месте на экране.

Не многие пользователи знают, что видеокарты могут выполнять намного больше, чем просто отображать картинку на мониторе. Используя CUDA, Stream и остальные подобные технологии, можно существенно поднять производительность компьютера, взвалив на себя не свои вычисления. Ниже будет описан принцип работы.

Чтобы вывести на экран непрерывные кадры в какой-нибудь современной игры, компьютеру требуется хорошая производительность. Стоит предположить, что современные видеокарты по производительности соответствуют свежим версиям процессоров.

Стоит отметить, что когда видеоадаптер простаивает и не выполняет обработку изображения, ее возможности остаются невостребованными. Чтобы не было такого простоя и можно было взвалить на нее некоторые обязанности, что снизит нагрузку на процессор, необходимо применять специальные опции ускорения компьютера. Ниже будет подробная инструкция о принципах работы этой технологии, которая может увеличить производительность ПК.

Каким образом видеоплата увеличивает скорость работы компьютера?

Воспользоваться возможностями видеокарт могут только специальные приложения. Данные программы могут совмещаться с видеокартой и используют одну из 4-х технологий физического ускорения.

CUDA. Данную разработку создала корпорация Nvidia. Эта технология может применяться для проведения сложных вычислительных манипуляций и для редактирования видео и картинок.

Stream. Эта технология механического ускорения аналогична первой, но разработана изготовителем видеоадаптеров AMD.
Обе эти технологии поддерживаются всеми операционками, кроме Mac OS, и используют только с видеокартами подходящего изготовителя. Создатели ПО вынуждены проводить дополнительную работу, чтобы видеокарты обоих разработчиков смогли увеличивать скорость работы их приложений. Ниже представлены технологии, которые способны работать с платами обоих изготовителей.

OpenCL. Эта технология была выпущена корпорация Apple в 2008 году и поддерживается всеми операционками и любым ПО. Однако, на сегодняшний день нет приложений для ускорения компьютера с использованием этой технологии. Кроме того, по увеличению продуктивности OpenCL существенно позади от первых двух технологий.

DirectCompute. Эта технология была встроена компанией Microsoft в DirectX 11. Но она способна работать только на операционках Windows 7 и Vista, и то с небольшим пакетом приложений.

Какое увеличение производительности предоставляет видеокарта?

Прирост непосредственно зависит от графического адаптера и производительности остальных элементов компьютера. Увеличение производительности устанавливается утилитами и проводимыми операциями. На современном среднем ПК увеличение скорости преобразования высококачественного видео может достигать до 20-ти раз. А вот редактирование фильтрами и спецэффектами фотоснимком может ускориться в триста раз.

Что влияет на высокую продуктивность CUDA и подобных технологий?

CPU на материнке при выполнении сложных задач изначально разделяет процесс на несколько поменьше, а после выполняет их последовательную обработку. Полученный промежуточный результат размещается в маленькой, но быстрой памяти процессора. Когда отделы памяти переполняются, файлы перемещаются в кэш-память, которая также расположена в процессоре. Но на обмен информацией между процессором и оперативкой требуется довольно много времени, поэтому скорость получается не совсем высокой.

Видеокарты иногда могут проводить такие манипуляции значительно быстрее. На это может влиять несколько обстоятельств. Одно из них параллельные вычисления. При необходимости провести несколько подобных манипуляций, некоторые из них могут проводиться графическим модулем совместно с процессором.

К примеру, при работе с видео или картинками утилите необходимо изменять огромное количество пикселей, и при этом используя повторяющиеся способы. Специально для этого графический адаптер обладает сотнями мелких процессоров, которые носят названия потоковые.

Кроме того, необходим быстрый доступ к памяти. По аналогии с центральными процессами, графические адаптеры также располагают своей промежуточной памятью и оперативкой. Но в этом случае они обладают множеством регистров скоростной памяти, что существенно увеличивает скорость вычислений.

Какое число потоковых CPU обладают видеокарты?

На это влияет модель процессора. К примеру, GeForse GTX 590 располагает двумя модулями Fermi, каждый из которых обладает 512 потоковыми CPU. Одна из мощнейших видеоплат от AMD — Radeon HD 6990 – также оснащена парой модулей, в каждом из которых по 1536 процессоров. Но при всем этом, HD 6990 существенно проигрывает GTX 590 по скорости.

Как запустить CUDA или Stream?

Ничего запускать не следует, так как технологии представляют собой элемент аппаратной части видеокарт. После того, как драйвер графического адаптера установить приложение, которое поддерживает какую-то технологию, тогда автоматически произойдет увеличение скорости работы компьютера. Чтобы получить полную производительность, необходимо инсталлировать свежую версию драйвера.
Стоит отметить, что пользователям видеокарт AMD требуется скачать и инсталлировать набор AMD Media Codec Package.

Почему не все утилиты работают с этими технологиями?

До того момента, пока OpenCL не будет широко распространен, создателям программного обеспечения надо подстраивать каждое приложение для возможности работать с видеоплатами Nvidia и AMD. Но при этом не каждый производитель пойдет на дополнительные расходы.

Кроме того, не все приложения имеют возможность обеспечивать постоянный поток несложных операций вычислений, которые могут происходить параллельно. Это может отлично сработать совместно с программами по редактированию видео и графики. Для почтовиков или текстовых редакторов эти технологии не сильно помогут.

Супер ПК

К примеру, китайский ПК Tianhe-1А располагает 7168 графическими модулями Nvidia, которые поддерживают отличную производительность. При этом проходит 2,5 трлн вычислений в секунду. Этот компьютер расходует 4 мегаватта энергии. Столько электричества расходует городок с пятью тысячами человек населения.

Способен ли графический адаптер заменить центральный?

Такую замену провести невозможно. Устройство этих процессоров полностью разное. CPU представляет собой универсальный вычислительный блок, который имеет возможность обрабатывать и пересылать информацию другим элементам ПК. В свою очередь, видеокарты являются узконаправленными устройствами, несмотря на то, что выполняют маленькое количество операций, но при этом с высокой скоростью.

Что будет в будущем: универсальные чипы

Чтобы увеличить производительность CPU, корпорации Intel и AMD постоянно добавляют ядра в свои процессоры. Кроме того, они постоянно добавляют новые технологии, которые способны увеличить эффективность вычислительных операций и возможность параллельной обработки информации.

По сравнению с центральными процессорами, видеокарты уже располагают большим количеством простых ядер, которые способны очень быстро выполнить комплексные вычисления.

Но получается так, что начальные отличия в принципах работы видеокарты и CPU понемногу стираются. Поэтому разработка универсального чипа очень логична. На сегодняшний день пользователи компьютера могут использовать весь потенциал видеокарты без дорогих графических чипов.

Современные процессоры от ведущих разработчиков, на данный момент могут продемонстрировать возможность соединить графический адаптер и CPU и работать, как один универсальный вычислительный блок.

В любом из чипов ядра CPU и видеокарты размещаются на единственном кристалле. Это предоставляет возможность быстрее разделить вычислительные манипуляции между ядрами. Эти применяемые технологии носят имя Intel Quick Sync и AMD Арр. В данное время уже имеются отдельные приложения, которые применяют подобную технологию.

В общем, это все, что необходимо знать о различиях центрального процессора и видеокарты. Как видно из написанного, графический процессор способен выполнять некоторые операции центрального, особенно это касается современных компьютеров с мощными видеокартами.

Все мы знаем, что у видеокарты и процессора несколько различные задачи, однако знаете ли вы, чем они отличаются друг от друга во внутренней структуре? Как CPU (англ. - central processing unit ), так и GPU (англ. - graphics processing unit ) являются процессорами, и между ними есть много общего, однако сконструированы они были для выполнения различных задач. Подробнее об этом вы узнаете из данной статьи.

CPU

Основная задача CPU, если говорить простыми словами, это выполнение цепочки инструкций за максимально короткое время. CPU спроектирован таким образом, чтобы выполнять несколько таких цепочек одновременно или разбивать один поток инструкций на несколько и, после выполнения их по отдельности, сливать их снова в одну, в правильном порядке. Каждая инструкция в потоке зависит от следующих за ней, и именно поэтому в CPU так мало исполнительных блоков, а весь упор делается на скорость выполнения и уменьшение простоев, что достигается при помощи кэш-памяти и конвейера .

GPU

Основная функция GPU - рендеринг 3D графики и визуальных эффектов, следовательно, в нем все немного проще: ему необходимо получить на входе полигоны, а после проведения над ними необходимых математических и логических операций, на выходе выдать координаты пикселей. По сути, работа GPU сводится к оперированию над огромным количеством независимых между собой задач, следовательно, он содержит большой объем памяти, но не такой быстрой, как в CPU, и огромное количество исполнительных блоков: в современных GPU их 2048 и более, в то время как у CPU их количество может достигать 48, но чаще всего их количество лежит в диапазоне 2-8.

Основные отличия

CPU отличается от GPU в первую очередь способами доступа к памяти. В GPU он связанный и легко предсказуемый - если из памяти читается тексел текстуры, то через некоторое время настанет очередь и соседних текселов. С записью похожая ситуация - пиксель записывается во фреймбуфер, и через несколько тактов будет записываться расположенный рядом с ним. Также графическому процессору, в отличие от универсальных процессоров, просто не нужна кэш-память большого размера, а для текстур требуются лишь 128–256 килобайт. Кроме того, на видеокартах применяется более быстрая память, и в результате GPU доступна в разы большая пропускная способность, что также весьма важно для параллельных расчетов, оперирующих с огромными потоками данных.

Есть множество различий и в поддержке многопоточности: CPU исполняет 12 потока вычислений на одно процессорное ядро, а GPU может поддерживать несколько тысяч потоков на каждый мультипроцессор, которых в чипе несколько штук! И если переключение с одного потока на другой для CPU стоит сотни тактов, то GPU переключает несколько потоков за один такт.

В CPU большая часть площади чипа занята под буферы команд, аппаратное предсказание ветвления и огромные объемы кэш-памяти, а в GPU большая часть площади занята исполнительными блоками. Вышеописанное устройство схематично изображено ниже:

Разница в скорости вычислений

Если CPU - это своего рода «начальник», принимающий решения в соответствии с указаниями программы, то GPU - это «рабочий», который производит огромное количество однотипных вычислений. Выходит, что если подавать на GPU независимые простейшие математические задачи, то он справится значительно быстрее, чем центральный процессор. Данным отличием успешно пользуются майнеры биткоинов.

Майнинг Bitcoin

Суть майнинга заключается в том, что компьютеры, находящиеся в разных точках Земли, решают математические задачи, в результате которых создаются биткоины . Все биткоин-переводы по цепочке передаются майнерам, чья работа состоит в том, чтобы подобрать из миллионов комбинаций один-единственный хэш, подходящий ко всем новым транзакциям и секретному ключу, который и обеспечит майнеру получение награды в 25 биткоинов за раз. Так как скорость вычисления напрямую зависит от количества исполнительных блоков, получается, что GPU значительно лучше подходят для выполнения данного типа задачи, нежели CPU. Чем больше количество произведенных вычислений, тем выше шанс получить биткоины. Дело даже дошло до сооружения целых ферм из видеокарт.


Top