Геймерские соблазны. AMD или NVIDIA?

И AMD, и NVIDIA отчаянно стремятся запутать и переманить геймера на свою сторону. Мы расскажем о преимуществах и недостатках продуктов этих компаний.

Результаты тестов не дают исчерпывающего представления о видеоадаптере. Помимо «голой» скорости, есть множество других параметров, часть которых трудно сравнить напрямую. Производители стараются компенсировать отставание своего продукта путем снижения цены, что делает его более привлекательным и во многих случаях может перевесить наличие новых технологий или более высокую скорость конкурента. Попробуем разобраться, взвесив «за» и «против» различных графических процессоров.

Новый друг лучше старых двух

При противостоянии двух конкурентов практически всегда наблюдаются «качели» —попеременный захват лидерства. Это относится и к видеокартам. Выпускать новинки одновременно производители никогда не будут, чтобы не делить один и тот же сегмент рынка. Гораздо выгоднее обновлять линейки по очереди, чтобы каждая компания могла снять сливки и заставить наиболее падких на рекламу покупателей проводить апгрейд в два раза чаще.

Такая «борьба нанайских мальчиков» выгодна нетолько производителям, но и покупателям, не стремящимся приобретать новейшие видеокарты. Дело в том, что при выходе продуктов нового поколения (выпуск которых традиционно начинается с верхнего ценового сегмента), цены на платы прежнего поколения снижаются, аналогично поступает и конкурент.

В настоящий момент «качели» находятся на стороне NVIDIA —платы на ее топовом графическом процессоре GeForce GTX 690 не имеют прямого конкурента от AMD. Такие адаптеры стоят от 30 тыс. руб. и заметно обходят по быстродействию все существующие решения без каких-либо архитектурных новшеств. Причина проста —GTX 690 содержит не один, а два ГП NVIDIA GK104. Отсюда и рекордная скорость, высокое энергопотребление и большая цена. По производительности GTX 690 равен двум картам GTX 680, работающим в режиме SLI, но и стоит почти столько же.

Ожидающая очередности своего хода, AMD уже подготовила симметричный ответ —Radeon HD 7990, основанный на двух ГП Tahiti XT. Первой среди партнеров AMD успела представить свой продукт компания Power Color —Devil 13 Radeon HD 7990 вскоре появится в продаже и обещает быть быстрее и дороже карт семейства GTX 690.

Зачем покупать продукты такого уровня? Игровая индустрия уже давно не способна реализовать весь потенциал топовых видеоадаптеров. Причиной тому является оптимизация игр под консоли, которые обновляются гораздо реже персональных компьютеров. Разработчики игр не тратятся на реализацию качественных эффектов и огромных текстур, недоступных консолям, так как рынок игр на ПК по сравнению с консольным рынком невелик, и дополнительные затраты попросту не окупаются. Именно поэтому даже новейшие игры хорошо работают на видеокартах, выпущенных четыре-пять лет назад.

Конечно, такая ситуация играет против производителей видеоадаптеров. Заставлять геймеров обновлять ПК помогают новые, ресурсоемкие технологии, такие как сверхвысокие разрешения с применением нескольких мониторов (AMD Eyefinity и NVIDIA Surround) и трехмерная картинка (AMD HD3D и NVIDIA 3D Vision). Иными словами —если вы хотите насладиться новой игрой на трех-четырех Full HD-мониторах, да еще и с 3D-эффектом, придется раскошелиться на несколько видеокарт либо приобрести двухчипового «монстра» не менее чем за 30 тыс. руб.

Ложка дегтя в бочку с crossfire

Режим совместной работы нескольких графических чипов, некогда изобретенный компанией 3dfx (обанкротившейся в 2000 году), поддерживается практически всеми видеокартами верхнего и среднего ценового диапазона. На первый взгляд такой вариант выглядит весьма привлекательно: если производительность видеокарты перестала вас устраивать, вы можете просто докупить вторую и получить почти двукратный прирост в некоторых режимах. Но есть в этом решении здоровущий подводный камень. Речь идет об эффекте микрозадержек (от англ. micro-stuttering). Проявляется он как нестабильность частоты кадров —то есть рендеринг разных кадров занимает разное время. На среднюю частоту кадров, которой оперируют тестовые лаборатории, он, разумеется, не влияет, а вот визуально очень хорошо заметен как неприятные замирания картинки на долю секунды.

Причиной появления микрозадержек является неоптимальность балансировки нагрузки. Даже новейшие драйверы от NVIDIA и AMD не могут идеально координировать совместную работу нескольких ГП, причем AMD в этом несколько уступает конкуренту —Crossfire сильнее, чем SLI, подвержен микрозадержкам. Впрочем, микрозадержки почти незаметны при частотах более 60 кадр./с и в конфигурациях из трех и четырех видеокарт.

Борьба за лидерство

Среди одночиповых решений правят бал недавние «топы» —NVIDIA GeForce GTX 680 и AMD Radeon HD 7970. Тесты демонстрируют небольшое преимущество продукта AMD (см. диаграмму на стр. 24). Есть ли между ними еще какие-либо различия? Безусловно. Поговорим о новых технологиях, реализованных NVIDIA и AMD в новых процессорах.

Многомониторные конфигурации

Долгое время NVIDIA нечего было ответить на технологию AMD Eyefinity, позволявшую подключать больше двух мониторов к одной видеокарте. Начиная с GTX 680 ситуация изменилась: теперь к карте можно подключить до четырех мониторов, причем три из них могут работать в 3D-режиме. А вот AMD Eyefinity 2.0, реализованная в HD 7970, поддерживает до шести мониторов, также с поддержкой 3D-режима.

Плавность картинки

Во многих играх сложность картинки на экране постоянно меняется, соответственно меняется и количество отображаемых за секунду кадров. И если частота кадров не кратна частоте обновления экрана, может возникнуть ситуация, когда на верхней половине экрана показан один кадр, а на нижней все еще висит предыдущий. Если картинка быстро меняется, эти половинки могут заметно не совпадать, и у пользователя возникнет ощущение рваного кадра —эффект тиринга (от англ. tearing —разрыв).

Устраняют тиринг с помощью технологии вертикальной синхронизации (VSync), заставляющей видеокарту снижать частоту кадров до величины, кратной частоте обновления экрана (60 или 72 Гц). Но есть проблема —в определенный момент сложность картинки может не позволить видеокарте отобразить в секунду 120 или 60 кадров, и тогда отобразится 30, 20 или 15 кадров. Прыжки между столь разными значениями воспринимаются как неприятное дерганье изображения, отсутствие плавности.

Для борьбы с этими рывками NVIDIA разработала технологию Adaptive V-Sync, которая работает весьма просто: если в какой-либо момент видеокарта не может отобразить 60 кадр./с, VSync попросту выключается и частота кадров снижается плавно.

Сглаживание изображения

Разрешения современных мониторов недостаточно для того, чтобы человеческий глаз не различал отдельных пикселей, потому любая наклонная прямая линия на контрастном фоне превращается в грубую лесенку. Чтобы избежать неприятного эффекта, нужно изменять цвет пикселей наклонных линий всех объектов на экране с учетом окружающих пикселей.

Самой старой и ресурсоемкой технологией является суперсэмплирование (SSAA и MSAA), базирующееся на простом методе: картинка просто рендерится в четырехкратном разрешении, а затем уменьшается под разрешение экрана. Производительность при этом сильно падает, поэтому NVIDIA и AMD постоянно разрабатывают методы, позволяющие достичь компромисса между качеством и плавностью.

В новом графическом процессоре NVIDIA сумела реализовать идеологически новый алгоритм сглаживания ТХАА. Он является комбинацией нескольких методов, включая сглаживающий постфильтр, мультисэмплирование, и даже временную компоненту. Последний метод обеспечивает сглаживание за счет смещения субпикселей при смене кадра. Вследствие инерционности человеческого зрения достигается эффект, аналогичный суперсэмплированию.

Когда размер не имеет значения

Многие ошибочно считают объем памяти, установленной на видеокарту, мерилом ее быстродействия, по аналогии с ПК, средняя производительность которого действительно во многих случаях зависит от объема ОЗУ. Если следовать этой логике, HD 7970 сильно превосходит GTX 680: 3 ГБ памяти у Radeon против 2 ГБ у GeForce. Несомненно, производители предпочли бы устанавливать равный объем памяти на видеокарты одного ценового сегмента, но в этот раз не получилось —ширина шины памяти у HD 7970 составляет 384 разряда, вследствие чего карта может работать либо с 1,5, либо с 3 ГБ памяти. Естественно, маркетологи AMD, прекрасно осведомленные о заблуждениях пользователей, не могли допустить отставания в цифрах от NVIDIA, посему видеокарта получила 3 ГБ видеопамяти.

Так есть ли разница между полутора, двумя и тремя гигабайтами памяти на видеокарте? Почти во всех случаях —нет. Дело в том, что в отличие от ПК видеокарта практически всегда работает с одним-единственным приложением —тем, что формирует картинку на экране. И самые требовательные графические приложения —игры —на данный момент больше гигабайта задействовать не способны. Причина проста: объем видеопамяти современных консолей невелик, а именно для них оптимизируются игры. Так, Sony PlayStation 3 содержит 256 МБ GDDR3, а в Microsoft Xbox 360 имеется 512 МБ памяти, использующейся совместно центральным и графическим процессорами.

Разумеется, если вы попробуете поиграть на GTX 680 в игру, требующую 3 ГБ видеопамяти, вам придется снизить качество текстур или терпеть катастрофическое падение производительности, —все текстуры в память не влезут, и системе придется постоянно гонять их по PCI Express. На практике такая ситуация может возникнуть лишь при попытке поиграть на нескольких мониторах, поскольку кадровый буфер для картинки такого колоссального разрешения может занять очень большой объем и места в памяти под текстуры просто не хватит. Но, как мы уже упоминали, для таких извращений существуют SLI, Crossfire и топовые двухчиповые видеокарты.

Стоит своих денег

Помимо топовых новинок, облегчающих карманы заядлых геймеров, AMD и NVIDIA выпускают продукты и для рассудительных покупателей. В арсенале обеих компаний имеются модели с высоким соотношением качества и цены. По функциональности они соответствуют своим старшим братьям, а вот производительность урезана различными способами: путем понижения тактовых частот, уменьшения количества потоковых процессоров и текстурных блоков, уменьшения ширины шины памяти. Чаще всего именно эти продукты являются самыми выгодными предложениями для тех, кто хочет приобщиться к новым технологиям за приемлемую цену.

NVIDIA GeForce GTX 660 Ti построена на базе старшей модели GTX 670 и архитектурно не отличается от топового GTX 680. В этом чипе применены почти все способы урезания производительности: искусственно отключена часть потоковых процессоров (задействовано 1344 из 1536) и текстурных блоков (112 против 128 в GTX 680), тактовая частота снижена с 1006 до 915 МГц, шина памяти урезана с 256 до 192 разрядов. В результате получился продукт, в большинстве случаев обгоняющий флагман предыдущего поколения, GeForce GTX 580, но при этом потребляющий и греющийся значительно меньше.

AMD HD 7870, в свою очередь, представляет собой облегченный вариант HD 7970 и уступает ему по количеству потоковых процессоров (1280 против 2048), числу текстурных блоков (80 против 128), ширине шины памяти (256 разрядов и 384 разряда соответственно), но тактовая частота ГП несколько выше: 1 ГГц против 925 МГц у HD 7970. Видеокарты на этом чипе уверенно обгоняют в тестах Radeon HD 6970 и GeForce GTX 570.

Между собой «середнячки» AMD NVIDIA соотносятся неплохо: GTX 660 Ti слегка обгоняет HD 7870 в некоторых тестах, но при этом он дороже (более 10 тыс. руб). Чуть более быстрый HD 7950 стоит лишь на 1 тыс. руб. больше, однако обгоняет конкурента от NVDIA. Как и во всех других сегментах, заклятые друзья тщательно сверили ценники, так что сделать выбор будет нелегко.

Бюджетный легион

Несмотря на то что обласканные вниманием журналистов карты обычно находятся в более дорогих сегментах, основную прибыль приносят отнюдь не они. Самыми массовыми по продажам были и остаются бюджетный и начальный сегменты, куда входят карты стоимостью до 4 тыс. руб.

Даже в этом ценовом диапазоне покупатель может познакомиться с новыми технологиям в лице GeForce GT 640 или HD 7750. Конечно, чипы нещадно «обрезаны», тем не менее это все те же Kepler и Southern Islands, а цены более чем приемлемые. К тому же они позволят играть со сниженными настройками качества даже в современные игры (спасибо консолям!). Например, и Radeon HD 7750, и GeForce GT640 уверенно выдают 30 кадр./с в Battlefield 3 и до 40 кадр./с в Elder Scrolls V:Skyrim.

Есть пределы и у экономии: если вы собираетесь приобретать видеокарту «на сдачу » и вас интересуют цены от 1,5 тыс. руб., смиритесь с тем, что новые игры встретят вас 8-15 кадр./с и превратятся в пытку. Придется ограничиться старым добрым World of Warcraft и флеш-казуалками. Впрочем, по статистике это самые популярные категории игр на ПК.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

20 + двенадцать =