Nvidia geforce gtx 480 игры. Обзор видеокарты ZOTAC GeForce GTX480

Спустя полгода после выхода графического процессора RV870 «Cypress» и линейки видеокарт ATI Radeon HD 5800 на его основе, компания NVIDIA наконец-то смогла порадовать своих поклонников выпуском новой архитектуры «Fermi» и первых двух видеокарт - GeForce GTX 480 и GTX 470, призванных стать ответом на Radeon HD 5800. Для многих томительное ожидание завершено и теперь уже можно, основываясь на массе всевозможных статей и обзоров, начать определяться, что же взять для современных игр с поддержкой DirectX 11? Благо, время до появления видеокарт в свободной продаже ещё есть, так как первые партии поступят в розничные сети не ранее 12 апреля. Несмотря на то, что карту мы получили за несколько дней до официального анонса, мы предпочли не торопиться с выпуском статьи, а провести максимально подробное и тщательное тестирование - поэтому мы и представляем статью вашему вниманию лишь спустя несколько дней после анонса новых видеокарт, но надеемся, что полнота материала позволит вам простить нам эту небольшую задержку.

Итак, встречаем - GeForce GTX 480!

Спецификации NVIDIA GeForce GTX 480 в сравнении с конкурентами

Технические характеристики NVIDIA GeForce GTX 480 представлены в таблице в сравнении с текущими ценовыми конкурентами и предшествующей ей видеокартой GeForce GTX 285:

Информации об архитектуре «Fermi» к настоящему времени в сети более чем достаточно, кроме того, вы можете самостоятельно ознакомиться с официальной документацией (2,74 Мбайта). Поэтому мы сразу же перейдём к обзору видеокарты.

Обзор видеокарты NVIDIA GeForce GTX 480 1,5 Гбайт

Эталонная видеокарта NVIDIA GeForce GTX 480 была предоставлена нам на тестирование в OEM-комплектации, то есть без упаковки и аксессуаров. Тем, кто хорошо знаком с внешним видом GeForce GTX 260-285, новинка не покажется оригинальной:


Разве что пять медных никелированных тепловых трубок, выходящие вверх от графического процессора, могут привлечь внимание:


В остальном эталонная GeForce GTX 480 внешне ничем особенным не выделяется. Длина печатной платы составляет 267 мм, что выгодно отличает новинку от конкурента в лице ATI Radeon HD 5870, длина которой равна 282 мм и которая помещается далеко не во все корпуса системных блоков.

Видеокарта оснащена PCI-E интерфейсом версии 2.0, двумя выходами Dual Link DVI-I и одним разъёмом HDMI, соседствующими с решёткой для частичного выброса нагретого графическим процессором воздуха за пределы корпуса:


С другого торца платы виден проём, который отнюдь не открывает путь воздушному потоку к турбине, как можно было бы предположить. Сверху видеокарты расположены шести- и восьмиконтактный разъемы для подключения питания, а также два разъёма MIO, для организации работы двух GeForce GTX 480 в SLI-режиме либо трёх - в 3-Way SLI:


Обратите внимание, что рядом с этими разъёмами находится ещё одна решётка, через которую из системы охлаждения выходит часть горячего воздуха, оставаясь, таким образом, внутри корпуса системного блока. Учитывая весьма высокое потребление GeForce GTX 480 (заявлено 250 Вт) и, как следствие, тепловыделение, это нелицеприятный факт. Но, по всей видимости, иного выхода у проектировавших эту систему охлаждения инженеров не было.

Пластиковый кожух системы охлаждения видеокарты держится на защёлках, отстегнуть которые не составляет никакого труда:


Использование на GeForce GTX 480 альтернативных кулеров совместно со штатной пластиной для охлаждения силовых элементов невозможно, так как в местах отверстий крепления около графического процессора находятся втулки, на которые и будут ложиться основания систем охлаждения, образовывая 3-4 мм щель между основанием кулеров и теплораспределителем GPU.

Несложно отвернуть и радиатор с пластиной охлаждения элементов печатной платы видеокарты, в результате чего с последней можно ознакомиться в полной мере:


Все микросхемы памяти видеокарты расположены на лицевой стороне печатной платы. Силовой тракт GeForce GTX 480 представляет собой шестифазную схему питания GPU, в основе которой контроллер CHL8266, и двухфазную - микросхем памяти:


Кристалл графического процессора, состоящего из неимоверных 3,2 млрд. транзисторов, закрыт крышкой-теплораспределителем с нанесённой маркировкой:


Судя по маркировке, GPU относится к третьей ревизии (GF100-375-A3) и выпущен на 4 неделе 2010 года. Графический процессор содержит 480 универсальных шейдерных процессоров, 60 текстурных блоков и 48 блоков растровых операций (ROP). Номинальная частота геометрического блока GPU составляет 700 МГц, а его шейдерного домена вдвое выше - 1401 МГц. В 2D-режиме частоты графического процессора снижаются до 51/101 МГц. Прочие характеристики вы уже могли видеть выше в таблице спецификаций.

Эталонная NVIDIA GeForce GTX 480 оснащается 12 микросхемами видеопамяти стандарта GDDR5 общим объёмом 1,5 Гбайт, расположенными на лицевой стороне печатной платы. Чипы выпущены компанией Samsung и имеют маркировку K4G10325FE-HC04 :


Исходя из спецификаций памяти, её номинальное время доступа составляет 0,4 нс, а теоретическая эффективная частота равна 5000 МГц. Несмотря на этот факт, частота памяти GeForce GTX 480 составляет всего лишь 3696 МГц, что позволяет надеяться на её успешный разгон. В целях снижения тепловыделения и экономии электроэнергии, при переходе видеокарты в 2D-режим эффективная частота памяти снижается до 270 МГц. Ширина шины обмена с памятью видеокарты равна 384 бит, что позволяет достичь внушительной пропускной способности 177,4 Гбайт/сек.

Новая версия утилиты GPU-Z уже может практически точно демонстрировать нам с вами характеристики GeForce GTX 480:


Перейдём к изучению системы охлаждения видеокарты и проверке её эффективности. Ключевым элементом штатного кулера GeForce GTX 480 является радиатор графического процессора:


Он состоит из пяти медных тепловых трубок диаметром 6 мм, являющихся частью основания (технология прямого контакта). Трубки пронизывают алюминиевые рёбра толщиной около 0,35 мм и с межрёберным расстоянием чуть более 1,5 мм. Нужно заметить, площадь радиатора кулера весьма скромная. Расстояние между трубками в основании также равно 1,5 мм. Вся конструкция радиатора никелирована.

Между графическим процессором и HDT-основанием радиатора кулера с избытком наложен густой термоинтерфейс серого цвета:


Для кулеров с технологией прямого контакта количество и качество термоинтерфейса имеет более высокое значение для достижения максимальной эффективности, нежели для кулеров с классическим основанием. Забегая вперёд, отметим, что удаление штатной термопасты и замена её на минимально возможный слой Arctic Cooling MX-3 позволила добиться снижения пиковой температуры GPU на 3 °С. В 2D-режиме температура не изменилась.

Вторым компонентом системы охлаждения GeForce GTX 480 является металлическая пластина с установленной на ней турбиной.


Пластина через термопрокладки контактирует с микросхемами видеопамяти и силовыми элементами печатной платы. Скорость вращения турбины (пиковой мощностью 21 ватт, кстати) регулируется видеокартой автоматически в зависимости от температуры. Интересной её особенностью является тот факт, что рост скорости происходит плавно, а вот её снижение после снятия нагрузки - очень резко. После шума, который генерирует кулер GeForce GTX 480 на скоростях, близких к максимальным, создаётся ощущение, что турбина отключается, хотя на самом деле это не так. В 2D-режиме, когда частоты видеокарты снижаются в разы, турбина функционирует на 44-46 % своей мощности. О её уровне шума мы вам расскажем в одном из следующих разделов сегодняшнего материала, а пока проверим, насколько эффективен окажется штатный кулер GeForce GTX 480.

Для создания нагрузки и прогрева видеокарты применялся очень ресурсоёмкий тест Firefly Forest из полусинтетического пакета 3DMark 2006 в разрешении 2560х1600 с анизотропной фильтрацией уровня 16x. Мониторинг температуры графического процессора видеокарты и мощности турбины (в %) осуществлялся с помощью программы MSI Afterburner версии 1.5.1, которая пока не в полной мере поддерживает GeForce GTX 480. Комнатная температура во время проверки составляла 25 °С. Тестирование проводилось в закрытом корпусе системного блока, конфигурацию которого вы найдете в разделе с методикой тестирования. Проверка была проведена до разбора видеокарты на штатном термоинтерфейсе.

Итак, посмотрим на температуры GeForce GTX 480 в автоматическом режиме работы турбины и на максимальной мощности:


Автоматическая регулировкаМаксимальная скорость


Очевидно, что видеокарта получилась очень горячей. Даже при нагрузке в виде теста из 3DMark 2006 температура графического процессора быстро достигла 95 °С, но затем, благодаря повышению скорости турбины до 70-78 % (~3600 об/мин), снизилась до 91..92 °С и далее не изменялась на протяжении всего теста. Если же вручную выставить турбину на максимальную мощность (~4780 об/мин), то температура графического процессора не превысит 68 °С. Налицо весьма высокая зависимость эффективности радиатора от скорости вращения турбины, что, прежде всего, говорит о его недостаточной площади рассеивания.

Не обойдена стороной и проверка эффективности эталонного кулера GeForce GTX 480 с помощью FurMark версии 1.8.0 (с переименованным exe-шником), который запускался в полноэкранном режиме в разрешении 2560х1600 с активированной в драйверах GeForce анизотропной фильтрацией уровня 16x. В автоматическом режиме работы мы могли наблюдать такую же картину, как и при тестировании в 3DMark 2006, с той лишь разницей, что пиковая температура сначала достигла 98 °С, а после автоматического повышения скорости турбины до 4150 об/мин снизилась до тех же 91-92 °С. Ну а на максимальной скорости вращения турбины были получены следующие результаты:


В результате температура графического процессора достигла 86 °С. Как видите, новая видеокарта получилась очень горячей, а система охлаждения шумной в 3D-режиме. Однако, потенциальным владельцам GeForce GTX 480 расстраиваться по этому поводу не стоит, так как топовые продукты NVIDIA и ATI никогда не отличались низкими температурами и уровнем шума. Кроме того, вскоре появятся альтернативные кулеры, которые «привозят» штатным кулерам вплоть до 30 °С и при этом функционируют несопоставимо тише (вспомним Arctic Cooling Accelero Xtreme GTX 280 или продукты Thermalright). Вопрос, скорее, в другом - насколько оправдано приобретать за 500 долларов США продукт, который требует замены штатной системы охлаждения и, скорее всего, потери гарантии при этом? Ну и ещё вариант - подождать появления GeForce GTX 480 с альтернативными кулерами.

Для проверки оверклокерского потенциала GeForce GTX 480 использовалась утилита EVGA Precision v1.9.2 :



Понятно, что с таким температурным режимом на фактически пока ещё «сыром» графическом процессоре ожидать каких-то впечатляющих результатов в разгоне не приходится. Так и вышло - частоту графического процессора без потери в стабильности и снижении качества картинки удалось поднять только на 45 МГц при итоговых 745 МГц (+6,4 %). Зато 0,4-нс чипы памяти откровенно порадовали, позволив ей стабильно функционировать на эффективных 4780 МГц (+29,3 %):


Не уверен на 100 %, что тест памяти из последней версии OCCT работает с GeForce GTX 480 корректно, но под проверку он забирает практически все доступные на видеокарте 1,5 Гбайт памяти:



Разгон видеопамяти не повлиял на температурный режим печатной платы видеокарты и графического процессора, что вполне логично.

В завершении обзора новой видеокарты напомним, что рекомендованная стоимость NVIDIA GeForce GTX 480 составляет 499 долларов США. Продажи видеокарт должны стартовать по всему миру с 12 апреля.

Тестовая конфигурация, инструментарий и методика тестирования

Все тесты были проведены внутри закрытого корпуса системного блока, конфигурация которого состояла из следующих комплектующих:

Системная плата: ASUS P6T Deluxe (Intel X58 Express, LGA 1366, BIOS 2101);
Центральный процессор: Intel Core i7-920, 2,67 ГГц (Bloomfield, C0, 1,2 В, 4x256 Kбайт L2, 8 Мбайт L3);
Система охлаждения: Хigmatek Balder SD1283 (с двумя Thermalright TR-FDB на 1100 об/мин);
Термоинтерфейс: Arctic Cooling MX-2;
Оперативная память: DDR3 3x2 Гбайт Wintec AMPX 3AXH1600C8WS6GT (1600 МГц / 8-8-8-24 / 1,65 В);
Системный диск: SSD OCZ Agility EX (SATA-II, 60 Гбайт, SLC, Indillinx, firmware v1.31);
Диск для игр и тестов: Western Digital VelociRaptor (SATA-II, 300 Гбайт, 10000 об/мин, 16 Мбайт, NCQ) в коробке Scythe Quiet Drive 3,5";
Архивный диск: Western Digital Caviar Green WD10EADS (SATA-II, 1000 Гбайт, 5400 об/мин, 32 Мбайт, NCQ);
Корпус: Antec Twelve Hundred (передняя стенка - три Noiseblocker NB-Multiframe S-Series MF12-S1 на 900 об/мин; задняя - два Scythe SlipStream 120 на 900 об/мин; верхняя - штатный 200-мм вентилятор на 400 об/мин);
Панель управления и мониторинга: Zalman ZM-MFC2;
Блок питания: Zalman ZM1000-HP 1000 Вт, 140-мм вентилятор.
Монитор: 30" Samsung 305T Plus.

В целях снижения процессорозависимости видеокарт в некоторых режимах отдельных игр, включённых в тестирование, 45-нм четырёхъядерный процессор был разогнан при множителе 21 и активированной функции «Load-Line Calibration» до 4,0 ГГц при повышении напряжения в BIOS материнской платы до 1,3725 В



Оперативная память функционировала с таймингами 7-7-7-14-1T при напряжении 1,64 В. Все прочие параметры в BIOS материнской платы, связанные с разгоном процессора или памяти, не изменялись (оставлены в положениях «Auto»).

Для сравнения с NVIDIA GeForce GTX 480 в тестирование добавлены видеокарты Leadtek WinFast GTX 285 и XFX GeForce GTX 295 2x896 Мбайт :




Из видеокарт на графических процессорах ATI в тестирование включены Radeon HD 5870 1 Гбайт и двухпроцессорная Radeon HD 5970 2x1 Гбайт:




Теперь перейдём к программной части и инструментарию. Тестирование, стартовавшее 23 марта 2010 года, было проведено под управлением операционной системы Microsoft Windows 7 Ultimate x64 со всеми критическими обновлениями на указанную дату и со следующими драйверами:

чипсет материнской платы Intel Chipset Drivers - 9.1.1.1025 WHQL ;
библиотеки DirectX End-User Runtimes, дата выпуска - февраль 2010 года ;
драйверы видеокарт на графических процессорах ATI Catalyst 10.3 ;
драйверы видеокарт на графических процессорах NVIDIA: GeForce/ION Driver 197.17 beta для GeForce GTX 480 и GeForce/ION Driver 197.25 beta для других NVIDIA-видеокарт;
драйверы ускорения физических эффектов - NVIDIA PhysX System Software 9.10.0129 .

Тестирование видеокарт в играх было проведено в двух разрешениях: 1920х1080 и 2560х1600. На наш взгляд, проводить тесты столь мощных видеокарт в более низких разрешениях не имеет никакой практической пользы, и приведёт лишь к увеличению объёма тестирования и ограничению производительности видеокарт скоростью платформы.

Для тестов были использованы два режима качества графики: «High Quality + AF16x» - максимальное качество текстур в драйверах с включением анизотропной фильтрации уровня 16х, и «High Quality + AF16x + AA 4(8)x» с включением анизотропной фильтрации уровня 16х и полноэкранного сглаживания (MSAA) степени 4x, или же 8x, в случае, если средний фрейм-рейт оставался достаточно высоким для комфортной игры. Включение анизотропной фильтрации и полноэкранного сглаживания выполнялось непосредственно в настройках игр, либо их конфигурационных файлах. Если данные настройки в играх отсутствовали, то параметры изменялись в панели управления драйверов Catalyst и GeForce. Вертикальная синхронизация принудительно отключена в панелях управления драйверов.

Все игры были дополнены самыми свежими на начало подготовки статьи патчами. В конечном итоге тестовый список составили два полусинтетических пакета, одно техно-демо и 21 игра, включая последние новинки. Вот как выглядит тестовый список с кратким описанием методик (игры расположены в порядке их выхода):

3DMark 2006 (DirectX 9/10) - build 1.2.0, настройки по-умолчанию и 2560х1600 с AF16x и AA8x;
3DMark Vantage (DirectX 10) - версия 1.0.2.1, профили настроек «Performance» (проводились только основные тесты);
Unigine Heaven Demo (DirectX 11) - версия 2.0, максимальные настройки качества, тесселяция «extreme»;
World In Conflict (DirectX 10) - версия 1.0.1.0(b34), профиль качества графики «Very High», «Water Reflection Clouds» - On, встроенный в игру тест;
Crysis (DirectX 10) - версия 1.2.1, профиль настроек «Very High», двукратный цикл демо-записи «Assault Harbor» из Crysis Benchmark Tool версии 1.0.0.5;
Unreal Tournament 3 (DirectX 9) - версия 2.1, максимальные настройки графики в игре (5-й уровень), Motion Blur и Hardware Physics активированы, тестировалась FlyBy-сцена на уровне «vCTF-Corruption» (два последовательных цикла), использовался HardwareOC UT3 Bench v1.5.0.0;
Lost Planet Extreme Condition: Colonies Edition (DirectX 10) - версия 1.0, уровень графики «Maximum quality», HDR Rendering DX10, встроенный в игру тест, результаты приведены по первой сцене (ARENA1);
Far Cry 2 (DirectX 10) - версия 1.03, профиль настроек «Ultra High», двукратный цикл теста «Ranch Small» из Far Cry 2 Benchmark Tool v1.0.0.1;
Call of Duty 5: World at War (DirectX 9) - версия игры 1.6, настройки графики и текстур выставлены на уровень "Extra", демо-запись «Breach» на одноимённом уровне;
BattleForge: Lost Souls (DirectX 11) - версия 1.2 (19.03.2010), максимальные настройки качества графики, тени включены, технология SSAO включена, двойной прогон встроенного в игру теста;
Stormrise (DirectX 10.1) - версия 1.0.0.0, максимальные настройки качества эффектов и теней, «Ambient occlusion» отключена, двойной прогон демо-сцены на миссии «$mn_sp05»;
Tom Clancy"s H.A.W.X. (DirectX 10) - версия 1.03, максимальные настройки качества графики, методики HDR, DOF и Ambient occlusion активированы, встроенный тест (двойной прогон);
Call of Juarez: Bound in Blood (DirectX 10.1) - версия 1.0.1.0, максимальные настройки качества графики, Shadow map size = 1024, 110-секундная демо-запись в самом начале уровня «Miners Massacre»;
Wolfenstein MP (OpenGL 2.0) - версия 1.3, максимальные настройки графики, собственная демо-запись «d2» на уровне «Manor»;
Batman: Arkham Asylum (Direct3D 9) - версия 1.1, максимальная детализация, «физика» максимальная, двойной прогон встроенного в игру теста;
Resident Evil 5 (DirectX 10.1) - версия 1.0, тестирование переменного теста с максимальными настройками графики без размытия движения, за результат принималось среднее значение третьей сцены теста, как наиболее ресурсоёмкой;
S.T.A.L.K.E.R.: Call of Pripyat (DirectX 11) - версия 1.6.02, профиль настроек «Улучшенное динамическое освещение DX11» с дополнительным выставлением вручную всех параметров на максимум, тестировалась собственная демо-запись «cop03» на уровне «Затон»;
Borderlands (DirectX 9) - версия игры 1.2.1, тестирование «timedemo1_p» с максимальными настройками качества;
Left 4 Dead 2 (DirectX 9) - версия игры 2.0.1.1, максимальное качество, тестировалась демо-запись «d333» (два прохода) на карте «Болотная лихорадка», этапе «Болото»;
Colin McRae: DiRT 2 (DirectX 9/11) - версия игры 1.1, встроенный тест, состоящий из двух кругов по трассе «Лондон» с максимальными настройками качества графики;
Wings Of Prey (DirectX 9) - версия игры 1.0.2.1, качество текстур «Ультра сверхвысокое» и прочие максимальные настройки качества графики, тестировалась двухминутная демо-запись на уровне «Эскорт» из кампании «Битва за Британию»;
Warhammer 40 000: Dawn of War II - Chaos Rising (DirectX 10.1) - версия 2.1.0.4679, настройки графики в меню игры выставлены на уровень «Ультра», три-четыре прогона встроенного в игру теста;
Metro 2033 (DirectX 10/11) - версия 1.0, максимальные настройки качества, для теста использовалась заскриптованная сцена продолжительностью 160 сек. на уровне «Chaser», двойной последовательный проход;
Just Cause 2 (DirectX 11) - версия 1.0.0.1, максимальные настройки качества, методики «Размытие фона» и Симуляция воды GPU» выключены, двойной последовательный проход демо-записи «Тёмная башня».

Более подробное описание методик тестирования видеокарт и графических настроек в некоторых из перечисленных играх вы можете найти в специально для этого созданной ветке нашей конференции , а также поучаствовать в обсуждении и совершенствовании этих методик.

Если в играх реализована возможность фиксации минимального числа кадров в секунду, то оно также отражалось на диаграммах. Каждый тест проводился дважды, за окончательный результат принималось лучшее из двух полученных значений, но только в случае, если разница между ними не превышала 1 %. Если разница между прогонами тестов превышала 1 %, то тестирование повторялось ещё, как минимум, один раз, чтобы получить корректный результат.

Результаты тестов производительности видеокарт их анализ

На диаграммах результаты тестирования видеокарт ATI Radeon HD 5970 и Radeon HD 5870 выделены красным цветом, герой сегодняшней статьи GeForce GTX 480 традиционным для NVIDIA зелёным цветом, а видеокарты GeForce GTX 295 и GTX 285 отмечены сине-зелёной гаммой. Тестирование видеокарт в разгоне в рамках сегодняшней статьи не проводилось, так как заслуживает отдельного материала.

Посмотрим на результаты тестирования и проанализируем их.

3DMark 2006



В первом полусинтетическом тесте GeForce GTX 480 удаётся лишь на чуть-чуть опережать своего основного конкурента - Radeon HD 5870, но при этом обе видеокарты оказываются быстрее двухпроцессорной GeForce GTX 295. Radeon HD 5970 в качественном режиме и разрешении 2560х1600 далеко впереди всех других участников тестирования, включая GeForce GTX 480.

3DMark Vantage



Немного иначе складывается ситуация в 3DMark Vantage, но только в профиле настроек «Perfomance», где GeForce GTX 480 почти на 2000 3D-«попугаев» быстрее Radeon HD 5870. При увеличении нагрузки видеокарты демонстрируют одинаковую производительность.

Unigine Heaven Demo 2.0

Так как видеокарты GeForce GTX 285 и GTX 295 не поддерживают DirectX 11, то для корректного сравнения с GeForce GTX 480 все эти карты были предварительно протестированы в режиме DirectX 10 с отключенной тесселяцией:



Результаты GeForce GTX 480 в демо Heaven, как бальзам на душу потенциальным покупателям этой видеокарты. Действительно, новинка демонстрирует великолепную производительность и в самом тяжёлом режиме существенно превосходит двух конкурентов из своего же «стана».

Теперь проверим, насколько хороша GeForce GTX 480 в режиме DirectX 11 с активированной тесселяцией (курсивом отмечены результаты видеокарт в DirectX 10):


Как видим, GeForce GTX 480 без труда соперничает с двухпроцессорной Radeon HD 5970 и оставляет далеко позади своего прямого конкурента Radeon HD 5870. Если в недалеком будущем тесселяция будет преобладать в играх, то приобретение GeForce GTX 480 выглядит куда привлекательнее, чем ATI. Впрочем, это больше похоже на «гадания на кофейной гуще», поэтому оставим это дело фанатствующим любителям и перейдём к игровым тестам.

World in Conflict


В игре World in Conflict GeForce GTX 480 оказывается быстрее Radeon HD 5870 и даже успешно соперничает с двухпроцессорной GeForce GTX 295, превосходя последнюю по минимальному числу кадров в секунду. Производительность двухчиповой видеокарты Radeon HD 5970 вне досягаемости для всех остальных участников сегодняшнего тестирования, но, опять же, превосходства по столь важному для комфортной игры минимальному числу кадров в секунду у этой видеокарты нет.

Crysis


Многие ждали, что с выходом «Fermi» игра Crysis наконец-то окажется покорённой и однопроцессорной видеокартой тоже, однако это оказалось далеко не так. Более того, GeForce GTX 480 демонстрирует совсем небольшое преимущество над Radeon HD 5870, что также для многих ожидавших эту новинку является сюрпризом. Зато GTX 480 в самом тяжёлом режиме качества обеспечивает более высокий уровень минимального числа кадров в секунду и в дополнение без труда расправляется с GeForce GTX 295.

Unreal Tournament 3


Unreal Tournament 3 продолжает писать «картины маслом», располагая видеокарты по производительности практически так же, как они позиционируются по стоимости. GeForce GTX 480 быстрее Radeon HD 5870, но медленнее обеих двухпроцессорных видеокарт.

Lost Planet Extreme Condition: Colonies Edition


Максимум, что удаётся сделать GeForce GTX 480 в игре Lost Planet - опережать Radeon HD 5870 в трёх тестовых режимах из четырех и на равных бороться с GeForce GTX 295. Двухпроцессорная видеокарта Radeon HD 5970 по-прежнему является самой быстрой.

Far Cry 2


Нельзя не отметить довольно уверенное выступление новой видеокарты и в игре Far Cry 2, где GeForce GTX 480 не только везде удается оставить позади Radeon HD 5870, но и в качественном режиме графики с использованием полноэкранного сглаживания на равных конкурировать с «авианосцем» Radeon HD 5970.

Call of Duty 5: World at War


Для игры в совсем не требовательную по современным меркам Call of Duty 5: World at War достаточно любой из тестируемых сегодня видеокарт, включая разрешение 2560х1600 и MSAA8x. Тем не менее, если сравнивать GeForce GTX 480 и Radeon HD 5870 между собой, то можно говорить о равенстве производительности видеокарт в этой игре.

BattleForge: Lost Souls


Несмотря на тот факт, что BattleForge: Lost Souls является про-ATI игрой, видеокарта на графическом процессоре NVIDIA GF100 проигрывает Radeon HD 5870 только в режиме без методик улучшения качества графики. С включением сглаживания GeForce GTX 480 удаётся немного вырваться вперёд.

Stormrise


А вот в ещё одной игре, выпущенной под пристальной опекой ATI, у видеокарт GeForce GTX нет ни единого шанса, поэтому они соревнуются лишь между собой.

Tom Clancy"s H.A.W.X.


В авиасимуляторе Tom Clancy"s H.A.W.X., напротив, GeForce GTX 480 сокрушает не только Radeon HD 5870, но и двухпроцессорного флагмана Radeon HD 5970. Заметим, что в качественном режиме графики преимущество GTX 480 над GTX 285 превышает 2 раза.

Call of Juarez: Bound in Blood



Игра Call of Juarez: Bound in Blood, как и BatleForge и Stormrise, лучше подходит для видеокарт на графических процессорах ATI. Тем не менее, это не помешало GeForce GTX 480 опередить Radeon HD 5870. При этом нужно заметить, что Call of Juarez нельзя отнести к ресурсоёмким играм, так как даже в максимальном разрешении вполне достаточно одной GeForce GTX 285 или какой-нибудь Radeon HD 4870/HD 5770.

Wolfenstein MP


Победа видеокарт ATI в игре Wolfenstein в достаточной степени удивительна, ведь NVIDIA всегда лучше работала с OpenGL и, как правило, лидировала в таких играх. Тем не менее, GeForce GTX 480 нечего противопоставить Radeon HD 5870 в этой игре.

Batman: Arkham Asylum


Зато ей есть что противопоставить в игре Batman: Arkham Asylum, а именно - аппаратную поддержку ускорения физических эффектов PhysX. Для успешного выступления видеокарт на графических процессорах ATI в этой игре, необходимо либо установить GeForce в качестве второй видеокарты, либо отключить эти эффекты вовсе. Правда, игра при этом становится весьма ущербной в графическом плане, так что первый вариант куда более интересен, хотя и более затратен с точки зрения финансов и времени на организацию совместной работы драйверов Catalyst и GeForce. В дополнение нужно заметить, что GeForce GTX 480 демонстрирует в Batman: Arkham Asylum просто-таки блестящую производительность, превосходя двухпроцессорную GeForce GTX 295.

Resident Evil 5


GeForce GTX 480 не оставляет шансов конкуренту и в игре Resident Evil 5. Более того, как видим, видеокарта на новом графическом процессоре GF100 способна с успехом противостоять и обеим двухпроцессорным гигантам в лице GeForce GTX 295 и Radeon HD 5970.

S.T.A.L.K.E.R.: Call of Pripyat

И вновь нужно напомнить, что видеокарты GeForce GTX 285 и GTX 295 не поддерживают DirectX 11, поэтому прежде чем посмотреть на основную диаграмму, для корректного сравнения с GeForce GTX 480 последняя предварительно тестировалась в режиме DirectX 10:



Нельзя сказать, что производительность GeForce GTX 480 в игре S.T.A.L.K.E.R.: Call of Pripyat находится на высоком уровне. Нет ни существенного преимущества над GTX 285, ни хоть какого-то опережения GTX 295. Да и в DirectX 11 новой видеокарте похвастаться нечем:




Borderlands


В игре Borderlands борьба между Radeon HD 5870 и GeForce GTX 480 ведётся с переменным успехом. В режимах без сглаживания быстрее видеокарта на графическом процессоре NVIDIA, а при активации MSAA8x вперед выходит Radeon, но только в разрешении 1920х1080.

Left 4 Dead 2


Если нравится месить бесконечных зомби в игре Left 4 Dead 2, то свой выбор лучше остановить на видеокарте на графическом процессоре ATI, так как они демонстрируют более высокую производительность, нежели карты на NVIDIA. Игра нересурсоёмкая, поэтому будет вполне достаточно любой из протестированных сегодня видеокарт.

Colin McRae: DiRT 2

DirectX 11 не поддерживается видеокартами GeForce GTX 2xx, поэтому сначала сравним с ними GeForce GTX 480 в честном DirectX 9 режиме:



Далее обратимся к результатам в DirectX 11 где уже участвуют видеокарты Radeon (DX9-результаты GTX 2xx также присутствуют, но выделены курсивом):


Пусть и ненамного, но GeForce GTX 480 всё же быстрее Radeon HD 5870 в данной игре.

Wings Of Prey


Технология CrossFireX не работает в пока ещё новом авиасимуляторе Wings Of Prey, поэтому Radeon HD 5970 оказалась самой медленной видеокартой тестирования. В то же время технология SLI прекрасно себя чувствует, за счёт чего GeForce GTX 295 здесь недосягаем для других видеокарт. Ну а GeForce GTX 480 по сумме тестов во всех режимах немного опережает Radeon HD 5870.

Warhammer 40 000: Dawn of War II - Chaos Rising


Warhammer 40 000: Dawn of War II - одна из самых процессорозависимых игр, поэтому результаты можно сравнивать только в максимальном качественном режиме и разрешении 2560х1600, в котором GeForce GTX 480 чуть быстрее Radeon HD 5870 по среднему числу кадров в секунду, но медленнее по минимальному. Вообще, по данному показателю GeForce GTX 480 в Warhammer 40 000: Dawn of War II оказалась худшей видеокартой, что скорее говорит о недостаточной оптимизации драйверов GeForce, поэтому вполне может быть исправлено в скором времени.

Metro 2033

Тестирование видеокарт в новой игре Metro 2033 проводилось в самом начале на уровня «Chaser», в заскриптованной сцене, где герой с двумя помощниками едет на вагонетке и не может передвигаться, за счёт чего удаётся получить результаты с очень высокой степенью повторяемости. Тестирование проводилось с помощью FRAPS в течение 160 секунд с момента загрузки уровня. Так как при максимальных настройках качества графики под DirectX 11 Metro 2033 можно было тестировать только на одной видеокарте из пяти участвующих в статье, то для тестов использовался DirectX10–рендер:



GeForce GTX 480 немного быстрее Radeon HD 5870, и обе этих видеокарты прилично уступают двухпроцессорной Radeon HD 5970. Добавим, что в Wings Of Prey не работала технология CrossFireX, в Metro 2033 мы наткнулись на плохую работу технологии SLI, а в следующей игре, Just Cause 2, она и вовсе оказалась неработоспособной.

Уже после завершения всех тестов производительность GeForce GTX 480 была дополнительно проверена в игре Metro 2033 и в режиме DirectX 11. К сожалению, видеокарты Radeon HD 5870 и HD 5970 к тому времени нами уже были возвращены, поэтому в качестве конкурента выступала видеокарта ATI Radeon HD 5850 1 Гбайт, разогнанная с номинальных 725/4000 МГц . Для сравнения использовалась всё та же демо-сцена «Chaser» с максимальными настройками качества. Результаты получились очень интересными:



В разрешении 1920х1080 разогнанный Radeon HD 5850 не сильно отстаёт от GeForce GTX 480, а вот в 2560х1600 на Radeon начинается настоящее «слайд-шоу», в то время как GeForce GTX 480 показывает результат втрое более высокий. Но это всё-равно не позволяет новой видеокарте обеспечить игроку комфортное число кадров в секунду в данной игре. Более того, ещё при прогоне тестовой сцены я заметил некоторое «замыливание» картинки на GeForce, и решил проверить это скриншотами (правда, уже на другом уровне, так как в «Chaser» одинаковые снимки экрана не сделать). Разницу в качестве картинки вы можете оценить сами (разрешение 1920х1080):

ATI Radeon HD 5850NVIDIA GeForce GTX 480







Легко заметить, что на видеокарте Radeon качество изображения явно выше. Все текстуры прорисовываются очень чётко, без смазывания границ и размытия. Напомню, что настройки качества графики в игре были идентичными на обеих видеокартах: DirectX 11, «Very High», AF16x, AAA, «Advanced DOF» и «Tesselation» включены. Кроме того, в драйверах Catalyst и GeForce/ION был выставлен максимальный режим качества текстурной фильтрации «High Quality» (по-умолчанию выставляется «Quality»). Так, может быть, именно за счёт такого снижения качества на GeForce GTX 480 и достигается более высокая производительность в Metro 2033? На этот вопрос менее чем за сутки оперативно отреагировали разработчики игры Metro 2033, вот их ответ:

«Нет, замеченная разница в отображении никак не связана с производительностью видеокарт. Действительно, в некоторых режимах антиалиасинга видеокарты NVIDIA и ATI по-разному рендерят картинку. Сейчас мы пытаемся понять, как быстро это можно исправить. Еще раз повторюсь – к производительности это не имеет никакого отношения».

Олесь Шишковцов, 4A Games, Chief Technical Officer

Ну что же, поживём - увидим.

Just Cause 2


В новой игре Just Cause 2 GeForce GTX 480 уступает Radeon HD 5870 столько же, сколько и выигрывала в Metro 2033.

Далее перейдём к анализу результатов на сводных диаграммах, построенным только по игровым тестам.

Сводные диаграммы сравнения производительности

На первой паре сводных диаграмм мы предлагаем вам оценить прирост производительности GeForce GTX 480 в сравнении с самой быстрой однопроцессорной видеокартой предыдущего поколения GPU NVIDIA - GeForce GTX 285, производительность которой на диаграммах принята за 100 %, а результаты GeForce GTX 480 показаны приростом в процентном отношении (в играх S.T.A.L.K.E.R.: Call of Pripyat и Colin McRae: DiRT 2 сравнивались результаты в DX10- и DX9-рендерах, соответственно):



Ну здесь, в общем-то всё наглядно и понятно. В режимах без сглаживания GeForce GTX 480 в среднем по игровым тестам быстрее топовой видеокарты предыдущего поколения GeForce GTX 285 на 30-37 % в зависимости от разрешения, а в режимах со сглаживанием на 46-48 %. Здесь нужно заметить, что при выходе 5-й серии видеокарт Radeon прирост производительности в сравнении с видеокартой предыдущего поколения ATI был выше. Наиболее ярко выраженный прирост производительности зафиксирован в таких играх, как Tom Clancy"s H.A.W.X., Far Cry 2 и Metro 2033. А менее всего производительность этих двух видеокарт отличается в нересурсоемких играх - таких, как Call of Duty 5: World at War или Wolfenstein.

Следующие диаграммы отведены под схватку двухпроцессорной GeForce GTX 295 и нового однопроцессорного флагмана GeForce GTX 480. За нулевую ось приняты результаты GeForce GTX 295 (в играх S.T.A.L.K.E.R.: Call of Pripyat и Colin McRae: DiRT 2 вновь сравнивались результаты в DX10- и DX9-рендерах, соответственно):



Борьба GeForce GTX 480 с двухпроцессорной видеокартой предыдущего поколения GeForce GTX 295 ведётся с переменным успехом. В некоторых играх быстрее двухчиповая видеокарта, а где-то - GeForce GTX 480. Здесь мы также не можем не вспомнить прежнее противостояние Radeon HD 5870 и Radeon HD 4870 X2, когда видеокарта на новом графическом процессоре почти везде оказывалась быстрее двухчипового флагмана предыдущего поколения. Тем не менее, в самых новых играх Metro 2033 и Just Cause 2 превосходство GeForce GTX 480 весьма велико из-за пока ещё неработающей технологии SLI в этих новинках.

Теперь по сумме игровых тестов оценим противостояние новой GeForce GTX 480 и Radeon HD 5870. Результаты представлены на следующей паре диаграмм, где производительность Radeon HD 5870 принята за нулевую ось, а результаты GeForce GTX 480 отражены в виде отклонений от неё:



И здесь чаша весов склоняется то в одну, то в другую сторону с существенным изменением процентов прироста или снижения производительности. Так в двенадцати играх - World in Conflict, Crysis, Unreal Tournament 3, Lost Planet: Colonies, Far Cry 2, Tom Clancy"s H.A.W.X., Call of Juarez: Bound in Blood (!),Batman: Arkham Asylum (без «допинга» для Radeon), Resident Evil 5, Borderlands, Colin McRae: DiRT 2 и Metro 2033 впереди оказывается GeForce GTX 480, а в пяти играх - BattleForge, Stormrise, S.T.A.L.K.E.R.: Call of Pripyat, Left 4 Dead 2 и Just Cause 2 - быстрее уже Radeon HD 5870. В оставшихся четырёх играх либо паритет, либо мизерное преимущество одной из видеокарт. Совершенно определённо можно сказать, что подавляющего превосходства GeForce GTX 480, которого все ждали, над Radeon HD 5870 на сегодняшний день нет.

Наконец, последняя пара диаграмм, по которой можно посмотреть на отставание GeForce GTX 480 от самой быстрой видеокарты современности - Radeon HD 5970:



Неработающая в игре Wings Of Prey технология CrossFireX и отсутствие поддержки PhysX в игре Batman: Arkham Asylum позволяют GeForce GTX 480 превосходить двухпроцессорную Radeon HD 5970. В играх Tom Clancy"s H.A.W.X. и Resident Evil 5 скорость видеокарт примерно одинакова, а во всех остальных случаях Radeon HD 5970 быстрее GeForce GTX 480.

Энергопотребление, нагрев видеокарт и уровень шума

Энергопотребление систем с разными видеокартами проводилось с помощью специально доработанного для этих целей блока питания. Максимальная нагрузка создавалась посредством запуска одного FurMark 1.8.0 в режиме теста стабильности и разрешении 2560х1600 (с AF16x), а также FurMark совместно с Linpack x64 (LinX 0.6.4, 4096 Мбайт, 7 потоков). Учитывая, что обе указанные программы генерируют максимальную нагрузку на, соответственно, видеосистему и центральный процессор, таким образом мы сможем узнать пиковое энергопотребление всей системы и определить необходимый для неё блок питания (c учетом КПД).

Полученные результаты приведены на диаграмме:






Нетрудно заметить, что система с GeForce GTX 480 в пике нагрузки потребляет больше системы с Radeon HD 5870 примерно на 130 ватт как при нагрузке в виде FurMark, так и при совместной нагрузке из FurMark и Linpack x64. Более того, система с GeForce GTX 480 умудряется потреблять больше системы с двухпроцессорной Radeon HD 5970! Вот уж действительно «прожорливая» видеокарта. И всё же по энергопотреблению лидирует по-прежнему GeForce GTX 295. В 2D-режиме разница между потреблением систем с видеокартами GeForce GTX 480 и Radeon HD 5870 составляет 26 ватт с выгодой в пользу Radeon. Кстати, о выгоде.

Допустим, вы - «игровой маньяк», и играете по 8 часов каждый в день в течение всего месяца. И, сфантазируем, что в течение этого времени нагрузка на видеоподсистему всегда максимальная, то есть разница в энергопотреблении систем с NVIDIA GeForce GTX 480 и с ATI Radeon HD 5870 постоянно равна 130 ватт в час. Таким образом, в течение месяца система с новой видеокартой NVIDIA «сожрёт» электроэнергии больше, чем система с конкурирующей видеокартой ATI на 32,2 кВт! Среднюю действующую стоимость киловатт-часа в Российской Федерации мне найти не удалось (она утверждается субъектами РФ), поэтому в качестве примера возьмём Москву, где киловатт-час по однотарифному счётчику стоит 2 рубля 42 копеек . Таким образом, у владельцев систем с GeForce GTX 480 в сравнении с владельцами систем с Radeon HD 5870 получается «перерасход» аж 78 рублей в месяц! Приведённые условия, при которых получена данная сумма, как вы понимаете, нереальны. На самом деле сумма должна быть меньше раза в четыре, как минимум. Но даже если это и так, и 78 рублей в месяц окажутся правдой, то ответьте самому себе - это действительно те деньги, которые можно приводить в качестве аргумента при сравнении видеокарт стоимостью более 18 тысяч рублей?

Теперь сравним температурный режим всех протестированных видеокарт при автоматической работе турбины. Нагрузка создавалась 15 циклами теста Firefly Forest из полусинтетического пакета 3DMark 2006 в разрешении 2560х1600 с анизотропной фильтрацией уровня 16x. Тесты проведены в закрытом корпусе системного блока при комнатной температуре 25 °С. Посмотрим на результаты:



Налицо существенное превосходство Radeon HD 5870 над GeForce GTX 480 по температуре графического процессора как в режиме простоя, так и при нагрузке.

И последнее, что осталось сделать перед тем, как перейти к выводам, это оценить уровень шума видеокарт. Измерение уровня шума штатных систем охлаждения эталонных видеокарт осуществлялось с помощью электронного шумомера CENTER-321 после часа ночи в полностью закрытой комнате площадью около 20 кв. м со стеклопакетами. Уровень шума каждого кулера измерялся вне корпуса системного блока, когда источником шума в комнате являлся только сам кулер и его турбина. Шумомер, зафиксированный на штативе, всегда располагался строго в одной точке на расстоянии ровно 150 мм от ротора вентилятора кулера. Материнская плата, в которую была вставлена видеокарта с установленной на неё системой охлаждения, размещалась на самом углу стола на пенополиуретановой подложке:


Нижняя граница измерений шумомера составляет 29,8 дБА, а субъективно комфортный (не путать с низким) уровень шума кулеров при измерениях с такого расстояния находится около отметки 37 дБА. Скорость вращения турбин штатных кулеров изменялась во всём диапазоне их работы с помощью нашего контроллера путём изменения питающего напряжения с шагом 0,5 В.

Полученные данные по уровню шума Radeon HD 5970 и HD 5870 оказались различающимися в пределах 0,1 дБА в каждой точке измерений, поэтому на графике они объединены. Уровень шума GeForce GTX 295 измерить на стенде оказалось невозможно, так как у данной видеокарты, чтобы добраться до коннектора турбины пришлось бы её всю разобрать. Результаты измерений представлены на следующем графике (пунктирной линией показан весь диапазон скоростей турбин, сплошной - реальный диапазон скоростей при тестировании в 3DMark 2006, описанном нами чуть выше):



Первое, что нужно заметить по результатам измерений, этот тот факт, что ни одна из штатных систем охлаждения эталонных видеокарт не является тихой. Второе, на что можно обратить внимание - кривая уровня шума кулера GeForce GTX 480 проходит под кривой уровня шума конкурента, Radeon HD 5870. Можно сделать вывод, что кулер GeForce GTX 480 функционирует тише, чем штатный кулер Radeon HD 5870? Однако, это справедливо только для сравнения этих кулеров на одинаковых скоростях вращения турбин, но на практике этого не происходит, так как при автоматическом режиме работы турбины GeForce GTX 480 скорость её вращения изменяется в диапазоне от 2100 до 3600 об/мин, в то время как на Radeon HD 5870 скоростной диапазон лежит в пределах всего 1270-2040 об/мин (см. выше диаграмму температур). Ввиду очень высокого тепловыделения графического процессора GF100, инженерам NVIDIA пришлось повысить в BIOS видеокарты планку предельной температуры и задать для неё более высокую скорость вращения турбины. Как результат - высокий уровень шума при более высоких температурах. Увы, но и по этому параметру до появления новых менее горячих ревизий графических процессоров GeForce GTX 480 проигрывает Radeon HD 5870.

Заключение

Итак, что же мы получили спустя полгода после выхода Radeon HD 5870? Если брать все тесты скопом (что, скорее, неправильно), то новая видеокарта GeForce GTX 480 в среднем быстрее Radeon HD 5870 на 5-15 % в зависимости от теста, режима качества и разрешения. Однако, по отдельным тестам есть как и более впечатляющие победы, так и поражения. Поэтому правильнее, на наш взгляд, рассматривать каждую отдельно взятую игру, что мы и сделали выше в разделе с результатами тестирования производительности видеокарт. По большому счёту, нужно признать, что GeForce GTX 480 становится самой быстрой однопроцессорной видеокартой.

С другой стороны, эта победа далась NVIDIA слишком большой ценой. Прежде всего мы имеем ввиду вовсе не высокое энергопотребление, чрезмерный уровень шума или неприемлемое тепловыделение, а время. Время, которое прошло с момента выхода Radeon HD 5870 безвозвратно упущено. К сегодняшнему дню новые топовые видеокарты ATI/AMD не только массово продаются, но и имеют уже шесть официальных версий драйверов, в то время как у NVIDIA GeForce GTX 480 нет ни одной (!) официальной, и лишь одна в стадии бета-тестирования. Оправдать столь поздний выход новой видеокарты можно было бы только тотальным и подавляющим превосходством (+50 % и более) в производительности над конкурентом, но этого на сегодняшний день NVIDIA не удалось добиться.

Что же касается высокого энергопотребления, то для наших цен на киловатты электроэнергии аргументация в пользу каких-либо продуктов (ATI или NVIDIA) выглядит нелепой и даже смешной. Проблема высокого уровня шума и тепловыделения решается установкой альтернативных систем охлаждения, которые уже начали анонсироваться всем известными брендами. Есть у NVIDIA и такие козыри в рукаве, как PhysX и CUDA, а также прогнозируемое превосходство над конкурентом в играх с поддержкой DirectX 11 с использованием тесселяции. Вряд ли кто собирается отрицать и возможность дальнейшей оптимизации драйверов GeForce. Поэтому, заверяем вас, одним знакомством с новой видеокартой мы не ограничимся, и вскоре продолжим изучать все её возможности.

И последнее, о чём не стоит забывать всем нам - только здоровая конкуренция может способствовать снижению цен на видеокарты и прочие высокотехнологичные продукты, поэтому неоспоримое лидерство какого-то одного производителя на руку только ему одному, ну или нескольким, если они, к примеру, в сговоре, но уж точно не нам с вами:-)

Благодарим:
российское представительство компании NVIDIA и персонально Ирину Шеховцову,
российское представительство компании AMD и персонально Кирилла Кочеткова
за предоставленные на тестирование видеокарты.

Другие материалы по данной теме


Энергопотребление видеокарт: весна 2010
Нужен ли нам PhysX? Тестирование EVGA GeForce GTX 275 CO-OP PhysX Edition
Metro 2033 и современные видеокарты

NVIDIA GeForce GTX 480M - топовая видеокарта, построенная на архитектуре Fermi. Она имеет полную поддержку DirectX 11 и производится по 40 нм технологии от TSMC. Имея 352 ядра, GTX480M можно сравнить с GTX 465 для настольных компьютеров, но с более низкой частотой. GeForce GTX 480M располагает 2 GB быстрой видеопамяти GDDR5 (дискретной), поэтому ее производительность должна находиться на уровне карты ATI Mobility Radeon HD 5870 .

Также известный под именем GF100 чип Fermi был преобразован и теперь имеет 3 миллиард транзисторов (со всеми 512 шейдерами). По сравнению с HD 5870 для настольных компьютеров, которая имеет 2.13 миллиардов транзисторов или Mobility Radeon HD 5870 (RV870) с 1.04 миллиардами транзисторов, GTX480M выглядит весьма впечатляюще.

Мобильный чип Fermi содержит до 352 шейдерных ядер (1-мерных) с 32 блоками растеризации (ROP) и 44 текстурными единицами (Texture Unit). Шина памяти - 256-битная, но из-за быстрой памяти GDDR5, она не должна быть проблемным местом. Силовое потребление составляет 100 Вт TDP, включая плату MXM и 2 GB GDDR5. AMD обычно определяет энергопотребление чипа отдельно, поэтому их нельзя непосредственно сравнивать. GTX 480M подходит только для большого ноутбука с хорошей системой охлаждения. Вначале только компания Clevo решилась установить эту карту в свои barebone-комплекты - 17" D901F и 18" X8100.

Производительность Nvidia GeForce GTX 480M должна быть лучше, чем у ATI Mobility Radeon HD 5870 , и на уровне с мобильной системой Geforce GTX 285M SLI и Radeon HD 4770 для настольных компьютеров. Это значит, что GTX480M - самая быстрая одиночная видеокарта в первом квартале 2010 года. Современные DirectX 10 игры должны работать на высоком разрешении бегло с хорошей прорисовкой и сглаживанием. Только для очень требовательных игр, подобных Crysis Warhead, возможно, нужно немного снизить детализацию. Из-за аппаратных средств поддержки DirectX 11 (например, хорошей тесселяции), видеокарты, построенные на архитектуре Fermi должны хорошо себя чувствовать в DirectX 11 играх, которых будет появляться все больше и больше.

Также как и серия видеокарт GeForce 300M, GeForce GTX 480M поддерживает PureVideo HD с видеопроцессором VP4. Это значит, что видеокарта может полностью декодировать HD видео в H.254, VC-1, MPEG-2 и MPEG-4 ASP. Используя Flash 10.1, графическая карта может также ускорить обработку Flash видео. Ядра Nvidia GeForce GTX 480M могут использоваться для общих вычислений, используя CUDA или DirectCompute. Например, кодирование видео HD может выполняться значительно быстрее, используя шейдерные ядра графического процессора, нежели это будет делать современный центральный процессор. PhysX, также поддерживаемый мобильным Fermi, позволяет вычислять физические эффекты в соответствующих играх (падение капель дождя, рассеивание тумана и т.д.).

По сравнению с видеокартами для настольных компьютеров, Geforce GTX 480M можно прировнять к разогнанной карте Nvidia GeForce GTX 465 (частота 607/1200) и Radeon HD 5770 .

Продолжительное время компания NVIDIA была лидером рынка графических ускорителей, всегда оставаясь первой в сфере инноваций и внедрения новых технологий. Но судьба нового поколения видеокарт оказалась не столь радужна, ведь уже полгода как на рынке доступны видеоадаптеры семейства Radeon с поддержкой нового DirectX 11, а соответствующие модели GeForce только появились. И дело тут не только в том, что калифорнийская компания проиграла AMD в гонке освоения нового 40-нм технологического процесса производства, но и в высокой планке, которую изначально поставили себе инженеры NVIDIA, принявшиеся за разработку качественно новой архитектуры Fermi, оптимизированной под будущие 3D-приложения. И насколько им это удалось, мы уже можем оценить на практике.

Архитектура GF100

Если последние решения AMD на базе Cypress являются развитием предыдущего поколения видеокарт, то NVIDIA подошла к процессу создания новой архитектуры более радикально, исходя из требований последнего API и его возможностей. Новый GPU получил название GF100. Аббревиатура GF указывает, что графический (Graphics) чип базируется на архитектуре Fermi.


Аналогично предшественникам на базе G80 и GT200 в основе нового GPU лежат несколько кластеров GPC (Graphics Processing Cluster), состоящих из группы потоковых мультипроцессоров (Streaming Multiprocessors). Полноценный чип включает четыре кластера по четыре мультипроцессора, каждый из которых в свою очередь содержит 32 CUDA-ядра. В итоге мы имеем 512 вычислительных блоков (CUDA cores). Но не случайно мы использовали слово «полноценный», ведь итоговый вариант GF100, на котором базируется топовый нынче графический ускоритель GeForce GTX 480, содержит лишь 480 активных CUDA-ядер, лишившись целого мультипроцессорного блока. А младшему GeForce GTX 470 достались уже 448 потоковых процессоров.


Кроме 32 CUDA-ядер мультипроцессор содержит блок целочисленных вычислений и блок для вычислений с плавающей запятой. Сложные операции выполняются блоками специальных фукций SFU (Special Function Units). Еще 16 блоков LD/ST служат для загрузки и хранения данных.


SM-блок имеет общую кэш-память первого уровня объемом 64 КБ и четыре текстурных блока. Всего в GF100 получается 64 текстурных модуля, но с учетом того, что вместо 16 мультипроцессоров у старшей карты осталось активных 15, то и число соответствующих блоков уменьшилось до 60. На фоне GT200 это немного, так как у предшественника их было 80. Но производительность новых текстурных блоков значительно возрасла. Согласно данным NVIDIA выборка текстур осуществляется чуть ли не в 1,5 раза быстрее чем у GT200.

Управляет потоками данных в GF100 специальный диспетчер GigaThread, распределяя потоки (варпы) по мультипроцессорам, внутри которых управление осуществляется соответствующими планировщиками Warp Scheduler и диспетчерами Instruction Dispatch. Каждый мультипроцессор имеет по два таких блока, благодаря чему может выполнять два варпа (32 потока) за такт.

Каждый мультипроцессор имеет 64 килобайт памяти, которая в зависимости от задач (графические или неграфические расчеты) может быть сконфигурирована в двух режимах: 48 КБ общей памяти и 16 КБ кэш-памяти первого уровня, или 16 КБ общей памяти и 48 КБ L1-кэша. Общая кэш-память второго уровня объемом 768 килобайт обеспечивает обмен данными между всеми блоками GPU. Унифицированная структура L2-кэша более гибкая, чем применявшаяся ранее «раздельная», и позволяет эффективнее использовать общий объем памяти в зависимости от потребностей конкретных задач и вычислительных блоков.


Кроме того, кластеры GPC дополнительно к четырем мультипроцессорным массивам имеют свои движки растеризации — Raster Engine, позволяющие параллельно с четырьмя специальными блоками PolyMorph Engine, отвечающими за тесселяцию и выборку вершин, поднять скорость обработки геометрии.


Претерпели изменения и блоки ROP, увеличена производительность при сглаживании методом мультисемплинга MSAA 8x. В качестве конкретных цифр приводится в пример игра H.A.W.X., в которой разница между режимом 4x MSAA и 8x MSAA на GeForce GTX 480 составляет не более 10%, в то время как на GeForce GTX 285 это около 50%. Также появился новый режим сглаживания 32x CSAA (Coverage Sampling Antialiasing), который обеспечивает сглаживание и полупрозрачных текстур, причем производительность при 32x CSAA почти не отличается от таковой в 8x MSAA.

Шина доступа к памяти, равная 384 битам, реализована за счет шести 64-битных контроллеров. У младшего GeForce GTX 470 отключен один контроллер. В качестве памяти используются чипы стандарта GDDR5. У старшей модели GeForce GTX 480 ее рабочая частота 3696 (QDR) МГц, у младшей — 3348 МГц. Топовый видеоадаптер оснащается объемом в 1536 МБ, а GeForce GTX 470 — 1280 МБ.

Производитель: NVIDIA
Серия: GeForce GTX 400M
Код: Fermi
Потоки: 352 - unified
Тактовая частота: 425* МГц
Частота шейдеров: 850* МГц
Частота памяти: 1200* МГц
Разрядность шины памяти: 256 Бит
Тип памяти: GDDR5
Максимум памяти: 2048 Мб
Общая память: нет
DirectX: DirectX 11, Shader 5.0
Энергопотребление: 100 Вт
Транзисторов: 3000 млн
Технология: 40 нм
Размер ноутбука: большой
Дата выхода: 25.05.2010
Видеоадаптер Radeon HD 5870 GeForce GTX 480 GeForce GTX 470 GeForce GTX 295 GeForce GTX 285 GeForce GTX 275
Ядро RV870 GF100 GF100 GT200b х 2 GT200b GT200b
Количество транзисторов, млн. шт 2154 3200 3200 1400 x 2 1400 1400
Техпроцесс, нм 40 40 40 55 55 55
Площадь ядра, кв. мм 334 530 530 487 x 2 487 487
Количество потоковых процессоров 1600 480 448 240 x 2 240 240
Количество текстурных блоков 80 60 56 80 x 2 80 80
Количество блоков рендеринга 32 48 40 28 x 2 32 28
Частота ядра, МГц 850 701 607 576 648 633
Частота шейдерного домена, МГц 850 1401 1215 1242 1476 1404
Шина памяти, бит 256 384 320 448 x 2 512 448
Тип памяти GDDR5 GDDR5 GDDR5 GDDR3 GDDR3 GDDR3
Частота памяти, МГц 4800 3696 3348 1998 2484 2268
Объём памяти, МБ 1024 1536 1280 896 x 2 1024 896
Поддерживаемая версия DirectX 11 11 11 10 10 10
Интерфейс PCIe 2.1 PCIe 2.0 PCIe 2.0 PCIe 2.0 PCIe 2.0 PCIe 2.0
Заявленная максимальная потребляемая мощность, Вт 188 250 215 289 183 219

Все более актуальными становятся в последнее время неграфические расчеты на GPU. Использование таких API, как CUDA и DirectCompute, расширяют функционал и возможности видеоадаптеров. Причем, подобного рода задачи становятся все более востребованными и для игровых приложений. Недавно вышедший проект Just Cause 2 использует для более реалистичной симуляции водной поверхности CUDA (что является эксклюзивным бонусом для владельцев видеокарт GeForce), в «Метро 2033 » для реалистичных эффектов постобработки под DirectX 11 используется DirectCompute. Мы уж не говорим о физическом движке NVIDIA PhysX, на базе которого реализуются реалистичная физика тканей, жидкости и дыма. Справедливости ради, надо отметить, что выдающихся проектов в числе использующих технологию PhysX немного, а тех, где подобные эффекты выглядят впечатляюще — еще меньше. Архитектура нового чипа изначально проектировалась под возможности выполнения неграфических расчетов с быстрым переключением задач. В частности, благодаря упоминавшемуся выше разделению общей памяти мультипроцессорных блоков под такие задачи выделяется 48 КБ в качестве кэша первого уровня.

Что же касается тех улучшений, которые несет игрокам DirectX 11, то GF100 готов к ним во всеоружии. Неслучайно большой акцент инженеры NVIDIA сделали на увеличении производительности при обработке геометрии. Одним из главных преимуществ нового API с точки зрения повышения конечного качества картинки является поддержка тесселяции. С помощью этого метода обработки увеличивается число полигонов на конечной модели. Фактически, таким способом модель просто сглаживается, избавляясь от «угловатости». Добиться более высокой детализации позволяет дополнительное наложение карт смещения (displacement maps). Использование этих двух методов позволяет работать с простыми начальными геометрическими моделями, а уже после применения тесселяции, т.е. разбиения на дополнительные треугольники, и смещения координат их вершин можно получить модель со сложной геометрией. Кстати, благодаря displacement maps возможно будет реализовать изменения геометрии объектов в режиме реального времени, например, получить настоящие дырки от пуль на поверхностях.


Именно с учетом всех этих новых возможностей DirectX 11 и проектировался GF100, что должно дать значительное преимущество над конкурентами в новых игровых проектах. В частности, NVIDIA говорит о восьмикратном преимуществе в специализированном тесте Microsoft subd11 tessellation test над Radeon HD 5870. В более приближенном к жизни Stone Giant Benchmark разница уже менее 90%, а в Unigine Heaven DX11 benchmark — это еще более скромные цифры. Результаты в синтетических тестах впечатляют, но в жизни все не так радужно, тем более, что проектов, где бы использовалась качественная тесселяция, пока не так уж и много.

Кроме традиционной растеризации Fermi предлагает использование метода трассировки лучей для построения изображения. На данный момент GF100 самый производительный чип, способный выполнять построение 3D-изображения с помощью алгоритмов трассировки лучей, поскольку его архитектура изначально оптимизировалась под такие возможности. Впрочем, производительности новых видеоадаптеров все равно не хватит для полноценного рендеринга в режиме реального времени. В NVIDIA это отлично понимают и предлагают комбинированный метод рендеринга с использованием стандартной растеризации и ray tracing. О какой-то практической реализации пока что говорить не приходится, и примеры такого подхода можно увидеть лишь на скриншотах, демонстрирующих работу такого метода с использованием специальной технологии NVIDIA OptiX.


Последние видеоадаптеры AMD могут выводить изображение сразу на три монитора, а специальные Eyefinity Edition-версии на шесть. Своеобразным ответом на это со стороны калифорнийской компании стала возможностей создания мультимониторной конфигурации (на базе трех дисплеев) для 3D-режима. Реализовать новую технологию 3D Vision Surround возможно лишь на SLI системе из двух или трех видеокарт новой серии. Учитывая рост системных требований при включении 3D-режима, такой подход вполне понятен — одна карта просто не в состоянии обеспечить нормальную производительность в современных играх на трех мониторах с разрешением до 1920х1080.


Подытоживая все вышесказанное, можно отметить, что чип GF100 получился прогрессивным и явно нацеленным на новые приложения под DirectX 11. NVIDIA привыкла быть лидером в разработке одночиповых видеоадаптеров, и новое поколение GeForce теоретически должно было повторить судьбу успешной серии GeForce 8800, но вышло совсем по-другому. Возникшие проблемы с реализацией в кремнии чрезвычайно сложного чипа, состоящего из более чем трех миллиардов транзисторов, привели к неслыханному доселе событию, когда в серийное производство пошла топовая видеокарта с отключенными вычислительными блоками. Изначальный вариант GF100 c 512 потоковыми процессорами так и не увидел свет. Собственно, это и не очень удивительно, если вспомнить, что у TSMC (производящей чипы для обоих графических гигантов) были некоторые проблемы и с более простым RV870 (2,15 млрд. транзисторов). Да и новый 40-нм техпроцесс у NVIDIA не задался даже в бюджетном сегменте. Не случайно же GeForce GT 220 и GeForce GT 240 обладали невысокими рабочими частотами на фоне предшественников, что вызывало некоторые опасения и в отношении будущих high-end видеокарт. При этом еще и сам выпуск новых моделей припозднился на полгода, когда AMD уже успела выпустить новые решения под DirectX 11 во всех ценовых сегментах. А огромный уровень энергопотребления и тепловыделения GeForce GTX 480 успел стать хорошей темой для шуток, что на самом деле не очень то и смешно, ведь потребление старшей карты достигает 250 Вт, в то время как ее основной конкурент Radeon HD 5870 ограничивается пиковым значением в 188 Вт. В такой ситуации основным преимуществом GeForce GTX 480 может стать высокий уровень производительности. И оправдает ли новый флагман NVIDIA возложенные на него надежды, мы как раз и постараемся выяснить в нашем тестировании.
Zotac GeForce GTX 480 (ZT-40101-10P)

Перейдем, наконец-то, к практическому изучению конкретного экземпляра GeForce GTX 480. В руки нам попала карта от компании Zotac, которая поставляется в довольно компактной упаковке с окошком на лицевой стороне, через которое частично видно сам видеоадаптер.


Поставляется данный экземпляр вместе со следующим набором аксессуаров:
  • переходник DVI/D-Sub;
  • переходник mini-HDMI/HDMI;
  • мостик SLI
  • диск с драйверами;
  • диск с дополнительным ПО;
  • инструкция по установке.
В качестве небольшого бонуса с картой идет диск с программами, использующими аппаратное ускорение с помощью технологии CUDA, в частности, утилиты для конвертирования и редактирования видеофайлов как Badaboom, vReveal и Super LoiLoScope. К сожалению, это 30-дневные trial-версии. Срок действия BitDefender Internet Security, который также включен в данный набор «ускоряемых» с помощью GPU программ, ограничен 90 днями.


Очень забавная наклейка с предупреждением о необходимости дать видеокарте остыть перед ее извлечением из системы находится внутри коробки. Похоже, тепловыделение GeForce GTX 480 действительно нешуточное, иначе бы обошлось без таких памяток пользователю.

Новый флагманский видеоадаптер по размерам вышел не больше старых моделей. Длина платы 27 см, что немного короче чем у Radeon HD 5870 . Если ранее старшие адаптеры NVIDIA были с двух сторон «облачены» радиаторами, то новая система охлаждения не предусматривает дополнительной пластины-радиатора с обратной стороны платы, да и микросхемы памяти на заднюю сторону платы уже не вынесены. Сам же кулер выполнен по типу турбины, бросаются в глаза четыре толстые тепловые трубки выглядывающие сбоку.




Видеокарта оснащена двумя выходами DVI и одним разъёмом HDMI с позолоченными контактами. В верхней части платы находятся шести- и восьмиконтактные гнезда для подключения дополнительного питания и два разъема MIO, позволяющие объединять видеокарты в режимах SLI или 3-Way SLI.


Система охлаждения состоит из большого радиатора графического чипа и пластины-радиатора для силовых элементов и микросхем памяти, к которой крепится радиальный вентилятор (довольно скромных размеров, кстати). Верхний кожух фиксируется на защелках и легко снимается.



В основе радиатора GPU пять толстых тепловых трубок диаметром 6 мм. Основание выполнено по технологии прямого контакта, т.е. сами трубки и являются основанием теплосъемника. Они приплюснуты и уложены подогнанные под их форму желобки. В избытке нанесен серый клейкий термоинтерфейс, что исключает возможность появления завоздушин.



Ребристая металлическая пластина, занимающая значительную часть внешней части конструкции, не относится к кожуху, а является частью системы охлаждения — к ней крепятся пластины радиатора. Соответственно, и нагрев ее будет довольно высокий, что лишний раз оправдывает памятку NVIDIA о необходимости быть осторожным перед извлечением видеокарты. Зато такой конструктивный элемент помогает увеличить общую площадь рассеивания.

Взглянем на плату, которая скрывается под системой охлаждения.


Схема питания ядра реализована по шестифазной схеме, памяти GDDR5 — по двухфазной.

Как и в предыдущих продуктах NVIDIA, кристалл закрыт теплораспределительной крышкой, чтобы предотвратить его повреждение и увеличить площадь контакта с теплосъемником системы охлаждения. На GeForce GTX 480 устанавливается чип с маркировкой GF100-375-A3.


Объем видеопамяти в 1,5 ГБ набран 12 микросхемами Samsung K4G10325FE-HC04. Эти GDDR5 чипы, согласно их спецификациям, рассчитаны на частоту в 5 ГГц, так что теоретически имеется еще довольно большой «запас» для разгона с учетом номинальной частоты памяти 3,7 ГГц у GeForce GTX 480. На деле все вышло совсем иначе, но об этом чуть ниже.


Рабочие частоты модели Zotac полностью соответствуют эталонным: ядро работает на 701 МГц, шейдерные блоки на 1401 МГц, а память GDDR5 на 3696 (924x4) МГц.


При отсутствии нагрузки частоты снижаются до 51/101/270 МГц (ядро/шейдерный домен/память) или до промежуточных значений. Регулируется и напряжение на GPU, поднимаясь до уровня 1,0 В только в 3D-приложениях.



Таким образом, достигается существенное снижение энергопотребления и тепловыделения чипа. И хотя пользователя уже не раз стращали пугающими цифрами температур и уровнем шума, но в 2D-режиме все не так плохо. Температура чипа держится в пределах 50 °С при довольно невысоком уровне шума. Но все резко меняется, как только запускается мощное 3D-приложение.

После 12-минутного прогона стресс-теста Fur Rendering Benchmark в разрешении 1680х1050 графический чип достиг температуры 96 °С, а вентилятор системы охлаждения в автоматическом режиме управления раскрутился до 92% от своего максимума (это чуть менее 4000 об/мин), создавая нестерпимый гул.


Ну а как же дело обстоит в реальных играх? После пятикратного прогона демки Ambush из Crysis Warhead Benchmarking Tool в разрешении 1920х1200 при максимальных настройках качества со сглаживанием AA4x чип достиг температуры в 92 °С. Но, что более важно, обороты вентилятора не превысили уже 75%. Нельзя сказать, что и такой режим комфортен для слуха, но вполне терпим, и, чисто субъективно, не намного больше чем у Radeon HD 5870 в автоматическом режиме управления кулером.


Температуры довольно высокие, но NVIDIA уже не раз рапортовала, что плата спроектирована из расчета на работу в таких высоких температурных режимах и что все компоненты рассчитаны на подобные условия. И если за долговечность видеокарты (по крайней мере в течение гарантийного срока) пользователь может не волноваться, то вопрос охлаждения других компонентов внутри системного блока встает очень остро. И хотя 90 °С на ядре для нас не новинка, старые продукты и конкуренты легко достигают таких значений в стресс-тестах, но с ролью «обогревателя» именно новый видеоадаптер справляется на ура, выделяя тепла больше всех. Карта отлично прогревает воздух внутри корпуса, а после нескольких часов интенсивной работы в помещении появляется и специфичный запах. Данный продукт явно не для тех, кто озабочен вопросами глобального потепления. И тем, кто нацелен на покупку данного продукта, мы бы рекомендовали присмотреться к корпусам с большим вентилятором на боковой стенке, например к Cooler Master HAF 932. Вот только от шума родной СО видеокарты это вас все равно не избавит… Честно говоря, лучше бы сделали плату на пару сантиметров больше, чтобы на эти же пару сантиметров увеличить сам радиатор.

И немного слов о разгоне. Для данной цели можно использовать последнюю версию утилиты MSI Afterburner, которая позволяет даже управлять напряжением на ядре, но с учетом его тепловыделения о вольтмоде с воздушным охлаждением и думать не стоит. Кстати, в новых видеокартах основной является теперь частота шейдерного домена, а остальные блоки работают на пониженном множителе относительно частоты шейдеров. Так что для управления доступна частота шейдерных блоков, равная в номинале 1401 МГц, а значение в 701 МГц для ядра повышается соответственно изменению первого параметра без возможности раздельной регулировки. Говоря о частотных особенностях надо упомянуть, что мультипроцессорные блоки в GPU не полностью работают на частоте «шейдерного домена», PolyMorph Engine вместе с Raster Engine функционируют на вдвое меньшей частоте.


Установив максимальные обороты турбины, мы достигли частот ядра в 775/1550 МГц. Относительно номинала это почти +11%. При дальнейшем повышении частот, родной системы охлаждения катастрофически не хватало, но потенциал у GF100 еще был. Хотя и наши частоты оказались полностью стабильными лишь первые шесть часов. После того, как пару раз зависло одно приложение, мы дали карте время немного остыть, и без проблем закончили все тесты. Как видим, именно охлаждение является сдерживающим фактором в деле раскрытия потенциала такого огнедышащего монстра, как GF100. Разгон памяти оказался на удивление низким, не смотря на ее номинал. Все чего удалось достичь — 3800 МГц (950 МГц), более высокие значения приводили к крайней нестабильности.

При таком разгоне сохранялась полная стабильность в Fur Rendering Benchmark (до момента возникновения описанных выше проблем спустя шесть часов интенсивной работы).


За 12-минут такого стресс-теста ядро прогрелось до 99 °С при максимальных оборотах вентилятора системы охлаждения. В реальных игровых приложениях, температура была заметно ниже и не достигала и 90 °С.

В качестве конкурента для рассматриваемого GeForce GTX 480 мы взяли самую мощную одночиповую видеокарту компании AMD — Radeon HD 5870. Модель от Gigabyte является полной копией референса, поэтому подробно останавливаться на ней мы не будем, тем более что данный продукт в деталях был рассмотрен ранее на страницах нашего сайта.


Комплект поставки включает:
  • переходник DVI/D-Sub;
  • два переходника питания molex-PCI-E;
  • мостик CrossFire;
  • диск с драйверами;
  • инструкции по установке.



Рабочие частота стандартны — 850/4800 МГц для ядра и памяти. В 2D частоты снижаются до 157/1200 МГц.


В стресс-тесте Fur Rendering Benchmark ядро прогрелось до 87 °С. Обороты вентилятора достигли 40%, но, несмотря на низкое значение, это уже означает довольно высокий уровень шума. Турбины у видеокарт AMD громче аналогичных систем охлаждения у NVIDIA, просто они никогда не работают на максимальных значениях, поэтому и оказываются на деле тише.


После прогона пятикратного теста Ambush из Crysis Warhead Benchmarking Tool в разрешении 1920х1200 температура не поднялась выше 79 °С.


С помощью утилиты MSI Afterburner ядро удалось разогнать до стабильных 960 МГц при поднятии напряжения с номинальных 1,15 В до 1,3 В. Память GDDR5 заработала на 5452 МГц (1363 МГц), что тоже отличный результат. С учетом вольтмода для стабильной работы пришлось зафиксировать обороты кулера на максимуме.


Рев турбины при этом нестерпимый, и в повседневной жизни такой разгон можно будет использовать лишь при более мощной системе охлаждения, но и в случае с GeForce GTX 480 мы тоже говорим о возможности использования разгона только с более мощным охлаждением. Зато мы получаем возможность сравнить потенциал обеих видеокарт при повышенных частотах.Тестовый стенд

Конфигурация тестового стенда следующая:

  • процессор: Core 2 Quad Q9550 (2,83@3,95 ГГц, 465 МГц FSB);
  • кулер: Thermalright Ultra-120 eXtreme;
  • материнская плата: ASUS Rampage Formula (Intel X48 Express);
  • память: OCZ OCZ2FXE12004GK (2x2GB, DDR2-1200@1162 МГц при таймингах 5-5-5-15);
  • звуковая карта: Creative Audigy 4 (SB0610);
  • жесткий диск: WD3200AAKS (320 ГБ, SATA II);
  • блок питания: Seasonic SS-850HT (850 Вт);
  • операционная система: Windows 7 Ultimate x64;
  • драйверы видеокарт: ATI Catalyst 10.3, NVIDIA ForceWare 197.41.
В операционной системе были отключены User Account Control и Superfetch, а также визуальные эффекты интерфейса. Файл подкачки фиксировался на 1 ГБ. Настройки драйверов видеокарт не изменялись.

В игровых приложениях тестирование проводилось в разрешениях 1680x1050 и 1920x1200 при максимальных настройках качества. Дополнительные тесты при активации сглаживания проводились только в тех приложениях, которые изначально его поддерживают, без принудительного форсирования через драйверы. Методика тестирования описана в одной из прошлых статей. Дублировать мы ее не будем, отметим лишь, что в число прогонов встроенного теста производительности в Colin McRae: DiRT 2 увеличено до 4 раз во всех режимах. Добавлена игра Метро 2033 , нюансы тестирования в ней описаны непосредственно перед результатами.


По среднему fps новичок GTX 480 немного уступает Radeon HD 5870, удерживая позицию лидера по минимальному fps. Впрочем, разница между обоими соперниками минимальна.




В более тяжелых режимах и высоких разрешениях GeForce GTX 480 немного сдает позиции, и отставание от конкурента достигает 7% в 1920х1200. Довольно неплохо масштабируется производительность GF100 даже несмотря на крошечный разгон памяти. Прирост от разгона достигает почти 11 % — столько же, насколько увеличена частота ядра.

The Chronicles of Riddick: Assault on Dark Athena



Снова в номинальных режимах ситуация неоднозначна. Radeon HD 5870 демонстрирует более высокий средний fps, но минимальный показатель лучше у GeForce GTX 480. С разгоном карта AMD уже обходит соперника по обоим параметрам, что с учетом большего разгонного потенциала вполне ожидаемо.

Call of Juarez: Bound in Blood



В обоих разрешениях результаты почти не отличаются. В данном случае производительность уперлась в процессор, что и стало причиной таких однообразных графиков. Но все равно заметно явное преимущество Radeon над соперником — минимальный fps выше почти на 6%.

Batman: Arkham Asylum


Для начала рассмотрим результаты тестирования в этом приложении без использования NVIDIA PhysX.



Минимальная частота кадров во всех режимах равна примерно 90 кадрам в секунду, в данном случае, возможно, снова производительность «уперлась» в вычислительные возможности процессора. По среднеигровому показателю лидером является GeForce GTX 480. Больший разгонный потенциал помогает Radeon HD 5870 выйти на первое место с разгоном.



При активации физического движка система с видеокартами Radeon демонстрирует очень низкую производительность и мощность самого видеоадаптера тут уже ничего не решает, fps зависит больше от CPU. GeForce GTX 480 демонстрирует высокую частоту кадров, достаточную для комфортной игры даже в самом высоком разрешении. Конечно, в таком режиме более актуально было бы сравнить новичка с предшественниками на базе GT200, и подобное сравнение на нашем сайте еще будет, но в будущих материалах.

Call of Duty: Modern Warfare 2





Вот наконец-то первое приложение, где преимущество GeForce GTX 480 над конкурентом весьма очевидное и без использования каких-либо PhysX. В простом режиме разница между видеоадаптерами небольшая и отставание карты AMD порядка 5%. Но стоит включить сглаживание, как производительность Radeon HD 5870 значительно падает, особенно снижается минимальный fps, и по этому параметру новичок обходит соперника на внушительные 40-45%.

Borderlands


Прежде чем переходить к результатам, отметим, что в родном тесте производительности Borderlands у всех карт GeForce имеется довольно большой разброс по минимальной частоте кадров, которая может колебаться от 25 до 32 кадров во всех 7 прогонах. Среднее значение составляет около 29 fps на всех моделях, начиная от GeForce GTX 260. У Radeon результаты тоже разнятся, но диапазон этого «разброса» значительно меньше, что дает среднее значение выше — 31 кадр. Но с учетом такой особенности этого теста, когда минимальный fps остается неизменным и не зависит от потенциала видеокарты, не стоит обращать большое внимание на данный параметр, хотя мы его и приводим. Довольно точное впечатление об уровне производительности в этой игре дает именно средний показатель.



Игра предпочитает GeForce, в чем мы уже имели возможность убедиться в тестировании видеокарт серии Radeon HD 5700 , так что преимущество GeForce GTX 480 не является неожиданностью. Отметим минимальное изменение средней частоты кадров по достижении рубежа в 80 fps. Прирост от разгона в разрешении 1680х1050 для GeForce менее 1%, в то время как в 1920х1200 мы выигрываем от повышения частот уже 3% (что тоже немного). Да и для Radeon прирост от повышения частот тоже небольшой. В этом приложении вновь общая производительность явно сдерживается потенциалом нашего процессора.

Divinity 2: Ego Draconis (Кровь драконов)



Очень внушительное преимущество GeForce GTX 480 над соперником — 10% по среднему fps и более 20% по минимальному показателю. И снова память не сильно сдерживает потенциал новичка при разгоне. Несмотря на крошечное изменение частоты GDDR5 на 2,7% (при разгоне GPU на 10,6 %), выигрыш в производительности от разгона составляет 9%.






На поле боя 3DMark Vantage новый GeForce GTX 480 терпит поражение в низком разрешении, а 1680х1050 уже не уступает Radeon HD 5870. Разгон помогает карте AMD быть лидером во всех режимах.



Игра известна совей процессорозависимостью, и даже в разрешении 1680х1050 на таких мощных видеокартах «ограничителем» вновь стал CPU, хотя в номинальном режиме небольшое отставание Radeon от новичка все же заметно.

При включении сглаживания разница между видеоадаптерами становится более явной, достигая 17% по среднему показателю. И Radeon HD 5870 не может догнать соперника даже с разгоном.


В самом высоком разрешении разница между тестируемыми видеоадаптерами еще больше. При включении AA4x преимущество GeForce GTX 480 достигает 19% и по минимальному и по среднему fps. Компенсировать такой разрыв сопернику AMD разгон не помогает.

Far Cry 2





Еще одна уверенная победа GeForce GTX 480. Преимущество над соперником в обоих разрешениях без сглаживания равно 10-13%, а при включении AA4x достигает уже внушительных 30% по среднему показателю и 60% по минимальному. Повышение частот Radeon HD 5870 до 960/5452 МГц помогает достичь уровня новичка на номинальных частотах только лишь в простых режимах, компенсировать огромнейшее отставание при активном сглаживании никакой разгон не поможет.

Tom Clancy"s H.A.W.X.






В этой игре обычно имеет место небольшое преимущество решений AMD, и наше тестирование это в очередной раз подтверждает. Но отставание GeForce GTX 480 от соперника минимально, а в разрешении 1920х1200 со сглаживанием лидерство внезапно оказывается на стороне модели NVIDIA.

Resident Evil 5





GeForce GTX 480 удерживает позиции лидера в номинале и в разгоне. Преимущество над соперником от 2 до 6% в простом режиме и от 11 до 13% при включении мультисемплинга.

James Cameron"s Avatar: The Game





Чуть большую производительность демонстрирует GeForce GTX 480. Но Radeon HD 5870 отстает от соперника на 3-4%. С разгоном обе карты демонстрируют примерно идентичные результаты, по минимальному fps совсем крошечное преимущество остается за представителем AMD.

Battlefield: Bad Company 2



В простом режиме при настройках High (Gamer) у новой карты NVIDIA преимущество в 10% над Radeon HD 5870.





С повышением настроек разница между картами уменьшается, но лидерство GeForce GTX 480 сохраняет. Наиболее значимым становится отставание конкурента при включении сглаживания — в таких случаях разница в минимальном fps может достигать 15%. Впрочем, Radeon HD 5870 компенсирует это лучшим разгоном, и в простых режимах даже умудряется немного обогнать разогнанный представитель Fermi.

В DirectX 11 преимущество GeForce GTX 480 становится еще больше. Отрыв от конкурента в номинальных режимах составляет около 11 % по минимальному fps и до 16% по среднему показателю. С разгоном Radeon HD 5870 удается достичь показателей конкурента по минимальному fps, но не по среднему показателю.

Metro 2033


Тестирование проводилось на локации «Аллея». Специально был выбран надземный уровень, поскольку именно на открытых пространствах fps ниже чем в туннелях и закрытых помещениях. Выбранный эпизод примечателен и тем, что можно обойтись без масштабных перестрелок и выполнить одну и ту же последовательность действий при каждом прогоне. Совершалась короткая 40 секундная прогулка по определенному маршруту. Для каждого режима тест повторялся по три раза. К сожалению, из-за дефицита времени мы успели протестировать GeForce GTX 480 только лишь под DirectX 11, но именно этот режим наиболее актуален для видеоадаптеров нового поколения. В последующих материалах (и по GeForce GTX 470 в том числе) будут присутствовать результаты в DirectX 10.





Преимущество GeForce GTX 480 над Radeon HD 5870 в простых режимах на уровне 13-15% по среднему fps, но разница по минимальному не более 4%. При включении сглаживания отставание карты AMD составялет 30-38% (возможно, и за счет большего объема видеопамяти у GeForce). Но обеспечить приемлемую производительность в таком режиме новичок NVIDIA все равно не в состоянии, так что практической пользы от такого огромного преимущества мало. И даже в разрешении 1680х1050 на Fermi минимальный fps не удовлетворительный, хотя на самом деле общая производительность близка именно к среднему показателю, а на закрытых локациях (которых в игре значительно больше) она еще выше, так что получить удовольствие от игры в DirectX 11 можно и в таком разрешении. Самым требовательным пользователям придется довольствоваться более низкими разрешениями даже с видеокартой GeForce GTX 480.

Выводы

Итак, что же получается по итогам нашего тестирования? Ситуация не совсем однозначная и не всегда GeForce GTX 480 оказывается производительнее Radeon HD 5870. В подавляющей части приложений новый видеоадаптер NVIDIA все же обходит своего конкурента, но зачастую разница между ними бывает совсем минимальной (Batman: Arkham Asylum, Avatar), и конкурент легко компенсирует это разгоном. В некоторых случаях новичок проигрывает по средней частоте кадров, но демонстрирует лучший минимальный fps (The Chronicles of Riddick: Assault on Dark Athena). Но есть и приложения, где верх уверенно берет Radeon HD 5870. Наиболее существенное отставание GeForce GTX 480 в недавно выпущенной игре Battlefield: Bad Company 2 и в S.T.A.L.K.E.R.: Call of Pripyat (под DirectX 10.1). Однако в том же Battlefield сразу проявляется и одна из положительных особенностей GeForce GTX 480, который сводит преимущество Radeon к нулю в высоком разрешении со сглаживанием. Именно в таких режимах мы видим максимальное преимущество новинки над конкурентом (исключение составляет лишь Battlestations: Pacific). С учетом того, что мощности рассматриваемого видеоадаптера для Battlefield: Bad Company 2 и многих других игр вполне хватает для подобных режимов, данное преимущество будет очень актуальным для владельцев больших мониторов.

В ряде приложений GeForce GTX 480 вообще демонстрирует уровень производительности недостижимый для своего основного конкурента, даже с разгоном (Divinity 2, Borderlands, World in Conflict, Far Cry 2). Особенно веским является превосходство в последних приложениях, поддерживающих DirectX 11. Яркий тому пример — ситуация в S.T.A.L.K.E.R.: Call of Pripyat, когда в DirectX 10.1 карта NVIDIA уступает конкуренту, но уже в DirectX 11 показывает более высокий минимальный fps и становится безоговорочным лидером при включении сглаживания. Не сдает лидерских позиций данный видеоадаптер также в Colin McRae: DiRT 2 и «Метро 2033».

GeForce GTX 480 может смело называться самым производительным одночиповым видеоадаптером. Прогрессивная архитектура Fermi действительно имеет преимущества относительно решений AMD, и, возможно, в будущем по мере выхода новых игр, использующих тесселяцию, превосходство флагмана NVIDIA станет еще большим. Но позволит ли все это стать данной видеокарте популярной? Сомнительно, уж сильно припозднился GeForce GTX 480. Fermi, возможно, и является более прогрессивным вариантом, но на данный момент никакой революции в производительности новый графический ускоритель пока не совершил. Пользователи, приобретшие в свое время Radeon HD 5870, могут спать спокойно — в большинстве случаев хороший разгон помогает компенсировать отставание от флагмана NVIDIA. При этом тепловыделение, уровень шума и цена топовой одночиповой модели AMD ниже, благодаря чему она не теряет своей актуальности и поныне.

К сожалению, новый чип NVIDIA вышел не только прогрессивным, но и очень сложным для конечной реализации. Как следствие, по пути от стадии разработки до воплощения в кремнии, GF100 был «облегчен» на 32 CUDA ядра, и даже это не помогло достичь нормального теплового режима конечного продукта. High-end продукты — это всегда удел энтузиастов, но и в их глазах GeForce GTX 480 из-за своего горячего нрава немного теряет привлекательность. Вряд ли кто-то будет мириться с такими высоким температурами внутри системного блока и шумом родной СО. Альтернативных кулеров для этой модели (в отличие от Radeon HD 5870) пока еще нет, да и появление воздушных систем охлаждения, способных поддерживать низкую температуру GF100, под вопросом. Потенциальному покупателю GeForce GTX 480 стоит задуматься о СВО, потому как это единственный на данный момент вариант, который позволит не только поддерживать низкую температуру чипа и компонентов платы, но и раскрыть весь потенциал видеокарты с помощью разгона. А он, потенциал, у нее имеется и весьма неплохой. Мы в этом отлично убедились на примере нашего экземпляра Zotac, который показал хороший прирост от повышения частоты GPU, даже несмотря на почти что полное отсутствие разгона памяти. Кстати, неприятная ситуация с низким разгоном GDDR5 оказалось характерной и для видеоадаптера Zotac GeForce GTX 470, которому будет посвящена следующая наша статья. Будем надеяться, что это всего лишь следствие «сырого» BIOS, а не каких-то конструктивных особенностей моделей данного производителя или всей линейки GeForce на базе GF100.

  • Zotac — видеокарта Zotac GeForce GTX 480.
  • Еще недавно гремели первые представления серии видеокарт на NVIDIA и GTX 470, основанные на тестировании официальных семплов NVIDIA, но только сейчас такие графические ускорители начали появляться на прилавках магазинов. Конечно, сохраняется интрига равнозначности семплов и серийных образцов. Особенно это подкрепляется решением производителя даже во флагмане линейки, модели NVIDIA , использовать немного урезанную версию чипа GF100 (GPU на основе дизайна Fermi). Но постараемся рассказать обо всем по порядку.

    Сама архитектура Fermi, используемая в Графических процессорах (видеокартах) NVIDIA и GTX470, была объявлена ещё в сентябре 2009 года и только через полгода пользователи смогли воспользоваться ее преимуществами. Заявленная стоимость видеокарт архитектуры GF100 должна составлять $500 на или $350 на GTX 470, что немного выше, чем у одночиповых флагманов от AMD, хотя на нашем рынке эти видеокарты явно будет еще дороже. Стоит отметить, что наблюдаемые у компании AMD проблемы производства GPU по 40-нм техпроцессу TSMC не позволяют ей предоставить рынку должное количество высокопроизводительных продуктов с поддержкой DirectX 11. Учитывая оставленную компанией NVIDIA возможность отключения проблемных частей GPU у всей линейки, ведь даже «топовые» чипы не используют весь потенциал GF100, можно надеяться на более полноценное обеспечение рынка видеокартами на и GTX470.

    Компания NVIDIA определила архитектуру Fermi как вычислительную по своей сути, что отодвигает традиционную роль GPU по ускорению 3D-графики в играх на второй план. Архитектура Fermi является последовательным развитием линейки Tesla - вычислительных карт, которые используются в требовательных к производительности системах. Этот факт подтверждает поддержка памяти с коррекцией ошибок (ECC) и усиленная производительность вычислений с двойной точностью. Потенциальный прирост от параллельного выполнения некоторых технических задач просто огромен, а инвестиции NVIDIA в разработку программного обеспечения обусловили значительный отрыв от AMD и Intel на этом растущем рынке.

    NVIDIA Fermi (GF100)

    Планируемые возможности новой видеокарты должны были удвоить производительный потенциал флагманской модели на GF100 по сравнению с видеокартой на основе GT200, такой как GTX285. Но теория не всегда воплощается в практический результат.

    Сам чип GF100 имеет 512 ядер CUDA (четыре кластера Graphics Processing Clusters , каждый содержит четыре мультипроцессора Streaming Multiprocessors , и каждый из них содержит 32 ядра CUDA). Но в оставили всего 480 ядер CUDA, что на 32 ядра меньше чем в оригинальной архитектуре GF100. Такое упрощение было сделано путем отключения одного мультипроцессора SM у GF100, видимо по причине невозможности получения в достаточном объеме полноценных графических процессоров.

    В свою очередь каждый мультипроцессор SM также содержит собственные текстурные блоки и движок PolyMorph (логика с фиксированными функциями, обеспечивающая повышенную производительность расчёта геометрии). Следовательно, получил 60 из 64 текстурных блоков и 15 движков PolyMorph.

    В той части конвейера GF100, которая независима от кластеров GPC, отключений блоков для NVIDIA не производилось. Здесь остались все шесть разделов ROP. Каждый раздел способен выдавать восемь 32-битных целочисленных пикселей одновременно, то есть мы получаем 48 пикселей за такт. Полноценный GF100 со всеми разделами ROP поддерживает 384-разрядный интерфейс памяти GDDR5 (то есть по 64-битному интерфейсу на раздел). Графический процессор поддерживает как раз такую конфигурацию, а 256 МБ памяти на интерфейс дают нам в сумме 1,5 ГБ памяти GDDR5 (пропускная способность составляет 177 ГБ/с, если учесть тактовую частоту 924 МГц).

    Все эти сокращения в рабочих мощностях исходного чипа являются следствием проблем с выходом годных кристаллов у NVIDIA, но необходимость представления новых решений на рынок Hi-End ускорителей заставила «выбросить» в продажу хотя бы урезанные версии графического процессора GF100 с архитектурой Fermi. Но каков бы ни был результат, он есть и его стоит протестировать и описать.

    К нам в тестовую лабораторию попала уже серийная видеокарта , с очень характерным для этого производителя дизайном коробки.

    Упаковка видеокарты оформлена в черном и желтом цветах. На лицевой стороне картонной коробки указана модель видеокарты, объём памяти, ее тип и пропускная способность шины памяти. Есть упоминания и о поддержке фирменной технологий NVIDIA PhysX и наличии разъема HDMI. В правом верхнем углу производитель обращает внимание на поддержку фирменных технологий: NVIDIA CUDA, NVIDIA PureVideo HD, NVIDIA SLI.

    На обратной стороне коробки поместился небольшой обзор возможностей данной видеокарты. Описаны преимущества использования технологий: NVIDIA 3D Vision Surround и PhysX.

    Внутри разместилась сама видеокарта и дополнительные компоненты поставки. Вместе с графическим ускорителем можно получить следующее:

    • Переходник питания видеокарты с двух шестиконтактных разъемов на один восьмиконтактный PCI Express;
    • Переходник питания видеокарты с двух MULEX разъемов на один шестиконтактный PCI Express;
    • Переходник с DVI на VGA;
    • Переходник с Mini-HDMI на HDMI;
    • Инструкцию пользователя;
    • Диск с ПО и драйверами;
    • Демонстрационный диск, описывающий все новые возможности этой видеокарты.

    Хочется отметить, что идущие в комплекте поставки переходники питания явно заставят пользователя использовать достаточно мощный блок питания с соответствующими разъемами для подключения видеокарты. Это может вызвать некоторые проблемы при подборе конфигурации. В целом комплектация должна полноценно восполнить все нюансы установки данной видеокарты в современный системный блок.

    Печатная плата

    Сама видеокарта выполнена на темном текстолите, лицевая сторона которого закрыта системой охлаждения с кожухом из темного пластика. Напомним, что данная видеокарта поддерживает шину PCI Express 2.0 x16, совместима с DirectX 11 Shader Model 5.0 и OpenGL 3.2, а также поддерживает технологии NVIDIA PureVideo HD Technology, NVIDIA 3D Vision Surround, NVIDIA PhysX Technology, NVIDIA CUDA Technology и NVIDIA SLI Technology.

    Обратная сторона печатной платы видеокарты выглядит значительно скромнее. Здесь только можно отметить чип системы питания GPU - ШИМ контроллер CHL8266 использующий шесть фаз. На каждую фазу питания приходится по три транзистора (один в верхнем плече и два в нижнем). Такой подход позволяет лучше отводить тепло от элементов подсистемы питания. Второй чип uP6210AG уже хорошо знаком нашим читателям по другим видеокартам на основе графических процессоров от NVIDIA. Он предоставляет две фазы питания для микросхем памяти данной видеокарты. Таким образом, суммарно получаем 6+2-фазную систему питания видеокарты.

    Заглянув под систему охлаждения можно сразу констатировать факт полной идентичности данной видеокарты с ее «референсным» вариантом. Видеокарта использует печатную плату длиной 267 мм (10,5″), то есть примерно на сантиметр короче ускорителей на Radeon HD 5870, это может помочь ей поместиться практически в любой современный корпус.

    Для дополнительного питания (помимо шины PCI Express) требуется подключение одной шестиконтактной и одной восьмиконтактной вилок. NVIDIA заявляет, что такая карта имеет тепловой пакет (TDP) 250 Вт, что существенно меньше, чем Radeon HD 5970, которая едва умещается в потолок 300 Вт, установленный группой PCI-SIG. Поэтому для «топового» решения NVIDIA рекомендует блок питания мощностью 600 Вт или выше.

    Плата занимает на задней панели корпуса два слота. Для достаточно объемной системы охлаждения пользователю придется освободить место и внутри корпуса.

    На интерфейсную панель выведены: два порта DVI и один mini-HDMI. Плюс второй слот полностью займет выпускная решетка, обеспечивающая выдув нагретого воздуха из системного блока.

    Система охлаждения

    Рассмотрим поближе систему охлаждения видеокарты. Она полностью повторяет «референсный» вариант и инженеры компании NVIDIA явно старались сделать ее максимально эффективной, но в виду прожорливости видеокарты результирующая температура компонентов все равно остается на достаточно высоком уровне.

    Пять тепловых трубок, дополнительный теплоотводящий кожух и аэродинамическая конструкция самой турбины сумарно впечатляют своей максимальной продуманностью. Это явно самая эффективная конструкция системы охлаждения из всех моделей эталонного дизайна, которые мы встречали раньше. Нагнетаемый боковой турбиной воздух проходит через алюминиевый радиатор, пронизанный пятью медными трубками, и выходит наружу корпуса.

    Уникальной особенностью этой конструкции можно назвать расположение одной из сторон радиатора непосредственно на поверхности кожуха карты, что явно улучшает теплоотвод, но в виду хорошего нагрева системы охлаждения взявшись за эту часть видеокарты можно обжечься.

    Заметным новшеством здесь можно назвать дополнительную пластину радиатора, отводящую тепло от поверхности GPU и микросхем памяти. Общая пластина закрывает верхнюю часть платы видеокарты и обеспечивает теплоотвод через специальный термоинтерфейс от микросхем памяти и транзисторов системы питания.

    Перейдем к тестированию системы охлаждения. При максимальной нагрузке температура GPU составила впечатляющие 101 °С, что для этого графического процессора не считается критической температурой. При этом система охлаждения работала на 92% и создавала ощутимый уровень шума.

    А в простое (2D-режим) кулер работает на 44% от своей максимальной мощности. В таком режиме его работа тоже заметна на общем шумовом фоне. Система охлаждения, установленная на данной видеокарте, обеспечивает нормальную эффективность, но потребности GPU видеокарты явно заставляют ее постараться для обеспечения приемлемых температур. Шумность системы охлаждения явно зависит от нагрузки на видеокарту, и назвать ее тихой никак нельзя.

    Что ж, а теперь перейдем к детальному изучению технических характеристик видеокарты. Для начала приведем краткую характеристику в виде таблицы:

    Установленный здесь графический процессор NVIDIA имеет маркировку GF100-375-A3.

    Частотная схема работы видеокарты и прочие характеристики выглядят так:

    Данный образец полностью повторяет все характеристики «референсной» версии ускорителя на NVIDIA . Графический процессор на ZT-40101-10P работает с частотой 701 МГц, а шейдерные домены на частоте 1401 МГц соответственно. Видеопамять получила 924 МГц реальной или 3696 МГц эффективной частоты.

    На тестируемой видеокарте применены микросхемы памяти GDDR5 производства компании SAMSUNG, суммарным объемом 1536 MБ. Маркировка K4G10325FE-HC04 указывает на то, что данные чипы обеспечивают время выборки 0,4 нс, что соответствует реальной частоте 1250 МГц или 5000 МГц эффективной и обеспечивает весомый запас для разгона.

    Тестирование

    Процессор Intel Core 2 Quad Q9550 (LGA775, 2,83 ГГц, L2 12 МБ) @3,8 ГГц
    Материнские платы NForce 790i-Supreme (LGA775, nForce 790i Ultra SLI, DDR3, ATX)
    GIGABYTE GA-EP45T-DS3R (LGA775, Intel P45, DDR3, ATX)
    Кулеры Noctua NH-U12P (LGA775, 54,33 CFM, 12,6-19,8 дБ)
    Thermalright SI-128 (LGA775) + VIZO Starlet UVLED120 (62,7 CFM, 31,1 дБ)
    Дополнительное охлаждение VIZO Propeller PCL-201 (+1 slot, 16,0-28,3 CFM, 20 дБ)
    Оперативная память 2x DDR3-1333 1024 MБ Kingston PC3-10600 (KVR1333D3N9/1G)
    Жесткие диски Hitachi Deskstar HDS721616PLA380 (160 ГБ, 16 МБ, SATA-300)
    Блоки питания Seasonic M12D-850 (850 Вт, 120 мм, 20 дБ)
    Seasonic SS-650JT (650 Вт, 120 мм, 39,1 дБ)
    Корпус Spire SwordFin SP9007B (Full Tower) + Coolink SWiF 1202 (120×120x25, 53 CFM, 24 дБ)
    Монитор Samsung SyncMaster 757MB (DynaFlat, 2048×1536@60 Гц, MPR II, TCO’99)

    При тестировании стало видно, что видеокарта подтверждает статус мощнейшего на сегодняшний день одночипового графического ускорителя. Новинка на GPU от NVIDIA явно немного опережает по быстродействию своих конкурентов на чипах AMD, но учитывая ее энергопотребление и рабочую температуру, что влечет и повышенную шумность, а также посмотрев на ценник, нельзя ее однозначно назвать сбалансированным решением. Кроме того, возникают сомнение в возможности на основе NVIDIA создать двучиповую версию, которая сможет «переплюнуть» по производительности двучиповый графический ускоритель на Radeon HD 5970.

    Разгон

    Разгон данной видеокарты тоже нельзя назвать выдающимся. Память на видеокарте нам разогнать почти не удалось, хотя сами чипы явно работают медленнее их номинальной частоты. Но сам GPU с напряжением равным 1,05 В удалось разогнать до 770 МГц, а температура ядра при этом составляла 87 °С. Но во время разгона видеокарта находится в иных условиях, чем при тесте эффективности системы охлаждения, в частности боковая панель корпуса была снята и возле видеокарты устанавливается 120 мм вентилятор, который немного улучшает условия охлаждения, а сам кулер постоянно работал на 100% скорости вращения. Имея программный механизм управления напряжением питания, мы продолжили эксперименты. При подаче 1,075 В GPU удалось разогнать до 784 МГц, а температура увеличилась до 91°С. Наилучшего результата удалось достичь при 1,1 В, когда GPU удалось разогнать до 790 МГц, но теперь его температура при нагрузке увеличивалась до 99°С

    Давайте посмотрим, как ручное ускорение отразилось на производительности:

    Тестовый пакет

    Стандартные частоты

    Разогнанная видеокарта

    Прирост производительности, %

    3DMark Score
    SM2.0 Score
    HDR/SM3.0 Score
    Performance

    Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

    1600×1200
    2048×1536

    Prey, Maximum Quality, AA4x/AF16x, fps

    1600×1200
    2048×1536

    Call Of Juarez, Maximum Quality, NO AA/AF, fps

    1280×1024
    1600×1200
    2048×1536

    Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

    1280×1024
    1600×1200
    2048×1536

    Crysis, Maximum Quality, NO AA/AF, fps

    1280×1024
    1600×1200
    2048×1536

    Crysis, Maximum Quality, AA4x/AF16x, fps

    1280×1024
    1600×1200
    2048×1536

    Crysis Warhead, Maximum Quality, NO AA/AF, fps

    1280×1024
    1600×1200

    Crysis Warhead, Maximum Quality, AA4x/AF16x, fps

    1280×1024
    1600×1200

    Far Cry 2, Maximum Quality, NO AA/AF, fps

    1280×1024
    1600×1200
    2048×1536

    Far Cry 2, Maximum Quality, AA4x/AF16x, fps

    1280×1024
    1600×1200
    2048×1536

    Прирост от разгона слабоват, а учитывая предельные температуры работы видеокарты даже без разгона, целесообразность последнего становится сомнительной, ведь придется хорошо постараться над повышением эффективности охлаждения GPU. Да и при номинальных частотах это «топовое» решение вполне может обеспечить достойную игровую производительность даже для требовательного пользователя.

    Итоги

    Видеокарты на графическом процессоре NVIDIA , в том числе и протестированная ZT-40101-10P, получились очень производительными одночиповыми решениями. Причем используемый в них GPU GF100 с архитектурой Fermi изначально имел 512 потоковых ядер, но в результате некоторых проблем с получением нужного количества чипов при производстве, «топовые» видеокарты на нем используют всего 480 ядер. Но за счет достаточно высоких рабочих частот ускорители на всё равно оказались в целом быстрее одночиповых карт конкурента на Radeon HD 5870, хотя лидером рынка пока еще остается двухчиповое решение от AMD – Radeon HD 5970.

    Однако, если по производительности одночиповые «топовой» видеокарты на GPU от NVIDIA превосходят соответствующие решения на чипах от AMD, то энергопотребление это явно не «конек» карт на NVIDIA . Конечно, для многих энтузиастов это не станет критерием выбора, но в ряде случаев стоит задуматься и над этим аспектом, ведь увеличение энергопотребления приводит не только к некоторому увеличению счетов за электроэнергию. Фактически вся потребленная графическим ускорителем энергия развеивается в виде тепла, которое нужно быстро отводить во избежание перегрева и выхода из строя высокотехнологичных компонентов, что в свою очередь ведет к усложнению системы охлаждения и повышению ее шумности.

    NVIDIA GeForce GTX 480 - империя наносит ответный удар!

    Конец слухам и домыслам! Новейшие видеокарты NVIDIA на базе архитектуры Fermi наконец-то официально анонсированы. Пришло время узнать, что они из себя представляют и какие бойцовские качества проявят в борьбе за корону мощнейшего ускорителя 3D-графики

    ⇣ Содержание

    Есть мнение, что все события вокруг нас развиваются циклично и обязательно повторяются во времени с некоторыми изменениями. Глядя на развитие событий вокруг графической архитектуры Fermi и видеочипов на её основе, невольно убеждаешься в справедливости этого утверждения. Дело в том, что последствия проблем, с которыми сейчас столкнулась NVIDIA при выпуске на рынок видеокарт на основе GPU Fermi, очень сильно напоминают о ситуации, сложившейся вокруг флагманского решения AMD трёхлетней давности - видеокарты Radeon HD 2900 XT. Вот как было дело. В конце 2006 года компания NVIDIA выпустила на рынок восьмое поколение своих видеокарт семейства GeForce. Флагманом линейки стал могучий по тем временам ускоритель NVIDIA GeForce 8800 GTX, который значительно опережал по производительности и технологичности топ-модель AMD тех времён – Radeon X1900 XTX. Чтобы успешно конкурировать с NVIDIA, компании AMD необходимо было создать новый топовый ускоритель, однако из-за череды технологических проблем новинка - Radeon HD 2900 XT, вышла примерно на полгода позже положенного срока. Аналогичная ситуация в конце 2009 года произошла с NVIDIA. С выходом первого ускорителя семейства AMD Radeon HD 5xxx - Radeon HD 5870, компания NVIDIA потеряла "майку лидера" среди одночиповых Hi-End решений, а затем, по мере расширения линейки графических ускорителей AMD, и вовсе начала сдавать позиции практически во всех сегментах рынка настольной графики. И вот спустя полгода компания NVIDIA наконец-то смогла наладить выпуск достаточного количества графических чипов новой архитектуры. Сегодня, 26 марта 2010 года, анонсированы новейшие графические ускорители NVIDIA GeForce GTX 470 и GeForce GTX 480. Старшая из этих видеокарт и стала объектом нашего пристального внимания. Не так давно мы уже публиковали материал, посвящённый особенностям архитектуры Fermi , поэтому сейчас не будем повторять уже сказанное, а поговорим лишь о том, что изменилось с тех времён. Вопреки ожиданиям, старший ускоритель семейства - NVIDIA GeForce GTX 480, получил не 512 ядер CUDA, как было заявлено ранее, а всего 480. Кроме того, изменения коснулись текстурных блоков, их количество равно 60, вместо заявленных ранее 64. А вот все 48 блоков ROP и обещанная ширина шины памяти в 384 бита остались на месте. Для подробного ознакомления с характеристиками новых ускорителей NVIDIA GeForce GTX 470 и GTX 480 обратимся к таблице:

    GeForce GTX 285 GeForce GTX 470 GeForce GTX 480
    Техпроцесс GPU, нм 55 40 40
    Кластеры обработки графики, шт. 4 4
    Кол-во потоковых мультипроцессоров 14 15
    Кол-во ядер CUDA 240 448 480
    Кол-во текстурных блоков 80 56 60
    Кол-во блоков ROP 32 40 48
    Частота GPU, МГц 648 607 700
    Частота ядер CUDA, МГц 1476 1215 1401
    Эффективная частота видеопамяти, МГц 2484 3348 3696
    Объём видеопамяти, Мб 1024 1280 1536
    Ширина шины памяти, бит 512 320 384
    Пропускная способность видеопамяти, ГБ/с 159 133.9 177.4
    Поддержка DirectX 10 11 11
    Максимальный TDP, Вт 183 215 250
    Рекомендованная мощность БП, Вт 550 550 600
    Предельная температура GPU, °C 105 105 105
    Рекомендованная розничная стоимость на момент анонса, долларов США 399 349 499

    Из таблицы видно, что GeForce GTX 480 в значительной степени превосходит предыдущую топ-модель - GeForce GTX 285, практически по всем характеристикам. Особенно стоит отметить вдвое большее количество ядер CUDA, что несомненно положительно скажется на скорости выполнения сложных шейдеров. Также новые ускорители NVIDIA получили долгожданную поддержку DirectX 11. Кроме того, в GeForce GTX 470/480 поддерживается технология под названием NVIDIA Surround, аналогичная ATI Eyefinity. NVIDIA Surround позволяет использовать три монитора одновременно как единое рабочее поле. Однако в реализации своей версии технологии полного погружения в виртуальный мир, калифорнийцы решили пойти ещё дальше и создали "технологический микс" из NVIDIA 3D Vision и NVIDIA Surround, который называется NVIDIA 3D Vision Surround. Суть этого "коктейля" в том, что можно одновременно использовать три монитора и очки 3D Vision для создания максимального эффекта присутствия. Но подробнее об этом мы расскажем в наших будущих материалах. Ну что же, пора познакомиться с новейшим ускорителем поближе, встречайте - NVIDIA GeForce GTX 480!

    ⇡ Внешний вид. Конструкция. Особенности

    Ещё задолго до выхода GeForce GTX 480, на страницах различных интернет ресурсов появлялись фотографии видеокарт, похожих на GeForce GTX 480, однако лишь перед самым анонсом мы смогли увидеть настоящие фото нового флагмана NVIDIA. Итак, перед вами эталонный образец NVIDIA GeForce GTX 480. Пластиковый кожух выполнен в уже знакомом стиле, однако, в отличие от решений предыдущего поколения, у GTX 480 он закрывает лишь около половины лицевой поверхности видеокарты, а вторая занята металлическим радиатором с надписью GeForce. Из верхней части пластикового кожуха выступают четыре тепловые трубки (всего их пять), а ближе к панели выводов расположены вентиляцилнные щели для отвода части нагретого воздуха. Длина видеокарты GeForce GTX 480 составляет 27 см, в то время как длина Radeon HD 5870 примерно на 2 см больше за счёт выступающей за пределы печатной платы системы охлаждения. Для работы видеокарты GeForce GTX 480 требуется подключение двух разъемов питания PCI-Express. Один из них 6-контактный, другой - 8-контактный. На панели выводов GeForce GTX 480 расположены два разъёма DVI и один порт HDMI. Здесь же находятся вентиляционные отверстия для отвода горячего воздуха за пределы системного блока. Демонтируем систему охлаждения. Кулер GeForce GTX 480 крепится к печатной плате при помощи 13-ти винтов. Контакт радиатора с элементами подсистемы питания платы, а также с чипами видеопамяти, осуществляется через специальные термопрокладки. Графический чип контактирует с радиатором через тонкий слой термопасты. Металлическая пластина, с которой соприкасаются микросхемы памяти и элементы системы питания, крепится к кожуху системы охлаждения GeForce GTX 480 при помощи пластиковых защёлок. В “хвостовой” части пластины располагается турбина, нагнетающая поток воздуха, который проходит через ребра радиатора и выводится за пределы системного блока. Самый горячий элемент GeForce GTX 480 – графический процессор. Для его охлаждения используется радиатор с пятью тепловыми трубками, выполненный с применением технологии прямого контакта. Все пять трубок через тонкий слой термопасты соприкасаются с металлической крышкой, защищающей графическое ядро. Система питания GPU использует шесть фаз и основана на ШИМ контроллере CHL8266. К сожалению, на сайте производителя не удалось найти соответствующую документацию. В отличии от силовых элементов производства Volterra, которые собраны в одном корпусе, в подсистеме питания GeForce GTX 480 силовые элементы выполнены по дискретной схеме. На каждую фазу питания приходится по три транзистора (один в верхнем плече и два в нижнем). Такой подход позволяет лучше отводить тепло от элементов подсистемы питания. Система питания видеопамяти двухфазная. Маркировка ШИМ контроллера памяти uP6210AG .

    Снимаем слой термопасты, и вот он - GPU NVIDIA GF100, закрытый защитной металлической крышкой, которая по совместительству выступает в качестве теплораспределителя. Судя по маркировке чипа (GF100-375-A3) массовое производство топовых ускорителей началось лишь с выходом третьей ревизии GPU на базе архитектуры Fermi.

    Компания AMD уже очень давно устанавливает на свои графические карты видеопамять стандарта GDDR-5, в то время как основная масса решений NVIDIA работает с памятью GDDR-3. Новые ускорители GeForce GTX 470/480, наконец, тоже оснащаются памятью передового стандарта. На нашем экземпляре GeForce GTX 480 установлена видеопамять производства Samsung с маркировкой K4G10325FE-HC04 . Ее время выборки составляет 0,4 нс, а номинальная эффективная частота равна 5 ГГц QDR. Ну что же, внешний осмотр GeForce GTX 480 окончен, пора переходить к практическим испытаниям новинки.

    Тестовый стенд

    Тестирование всех видеокарт в данном обзоре проводилось на стенде следующей конфигурации:

    Центральный процессор Intel Core i7 870 @ 4.0 ГГц (182x22)
    Система охлаждения CPU Glacialtech F101 + 2x120 мм вентилятора
    Материнская плата ASUS Maximus III Extreme
    Оперативная память Super Talent DDR3 @ 1890
    Жёсткий диск Samsung SpinPoint 750 ГБ
    Блок питания IKONIK Vulcan 1200 Вт
    Корпус Основа для стенда Cooler Master test bench 1.0
    Операционная система Microsoft Windows 7 x64 Ultimate
    Версии драйверов: Для видеокарт NVIDIA использовались драйверы ForceWare 197.17
    Для видеокарт AMD использовались драйверы Catalyst 10.3a preview

    В тестировании участвовали следующие видеокарты:

    • AMD Radeon HD 4890
    • AMD Radeon HD 5870
    • AMD Radeon HD 5970
    • NVIDIA GeForce GTX 260
    • NVIDIA GeForce GTX 285
    • NVIDIA GeForce GTX 295
    • NVIDIA GeForce GTX 480
    Разумеется, главной целью данного обзора является знакомство с новым графическим ускорителем NVIDIA и оценка его потребительских качеств. Помимо этого, мы также попытаемся выяснить целесообразность перехода на новые видеокарты для владельцев решений предыдущего поколения. Именно поэтому в нашем обзоре помимо прямого конкурента GeForce GTX 480 – видеокарты AMD Radeon HD 5870, в тесте также принимают участие хиты продаж прошлых лет – Radeon HD 4890, GeForce GTX 260 и, конечно, топовые ускорители NVIDIA прошлого поколения.

    Несколько слов о разгоне

    В наших материалах для главного объекта тестирования мы обычно приводим как результаты, полученные на номинальных частотах, так и делаем замеры производительности после разгона. К сожалению, в этот раз тестов с повышенными относительно номинала частотами не будет, поскольку ни одна из существующих утилит не способна разогнать GeForce GTX 480. Ни NVIDIA System Tools, ни MSI Afterburner пока не могут повысить частоты этой видеокарты выше номинала. Более того, существующие публичные версии диагностических и оверклокерских утилит путаются в своих показаниях:

    И только новая версия GPU-Z, которая на момент написания материала была недоступна для публичного скачивания, смогла правильно определить все характеристики нового ускорителя GeForce GTX 480.

    Скриншот утилиты GPU-Z сделан на системе с двумя видеокартами GeForce GTX 480 в режиме SLI, работающих на номинальных частотах.

    ⇡ Тестовые приложения и режимы тестирования

    Измерение температуры графического процессора NVIDIA GeForce GTX 480 и общего энергопотребления тестовой системы производилось в трёх режимах:

    Игровое тестирование проводилось при следующих настройках:

    Разрешение Варианты настроек качества картинки
    3DMark Vantage Performance, High, Extreme
    STALKER: Call of Pripyat. Сцена Sun Shafts 1680x1050, 1920x1200 DX10/10.1, Max. Detail, 4xAA/16xAF, Real Shadows, DX 11, Max. Detail, No Tessellation, 4xAA/16xAF, Real Shadows
    Colin MCRae DiRT 2 1680x1050, 1920x1200 DX 9 Ultra Detail, 4xAA/16xAF; DX 11 Ultra Detail, 4xAA/16xAF
    Unigine Heaven v 1.0 1680x1050, 1920x1200 DX10, High Detail, 4xAA/16xAF; DX11, High Detail, Tessellation off, 4xAA/16xAF
    FarCry2 DirectX 10 Benchmark 1680x1050, 1920x1200 DX10, Very High preset, 4xAA/16xAF
    Resident Evil 5 DirectX 10 Benchmark 1680x1050, 1920x1200 DX10, High Detail, 4xAA/16xAF
    Crysis v 1.2 x64 1680x1050, 1920x1200 DX10, Very High, 4xAA/16xAF
    В драйверах видеокарт NVIDIA технология PhysX была выключена Этот обзор NVIDIA GeForce GTX 480 является первым, но далеко не последним тестированием возможностей нового флагмана NVIDIA. В этот раз при выборе режимов тестирования мы остановились на проверке производительности новинки в “классических” режимах. Сравнение производительности с включенной тесселляцией, оценка скорости и качества более сложных алгоритмов сглаживания, а также изучение производительности SLI-связки новых флагманов – темы будущих обзоров. Итак, перейдем к цифрам.

    ⇡ Тестирование

    Температурные режимы

    Прежде всего, давайте выясним, как обстоят дела с температурой GPU NVIDIA GF100 в различных режимах работы, и сравним эти показатели с результатами остальных участников тестирования. Все тестовые видеокарты охлаждались эталонными СО. Исключением была лишь плата NVIDIA GeForce GTX 260, которая представлена видеокартой ASUS ENGTX260 Matrix .

    Несмотря на то, что при работе с офисными приложениями частота графического процессора и видеопамяти GeForce GTX 480 значительно снижается, температура GF100 довольно высока, выше, чем у Radeon HD 4890. При этом шума от турбины GeForce GTX 480 не слышно даже на открытом стенде.

    Температура GPU GeForce GTX 480 в игре FarCry2 “впечатляет”. Впервые в нашей лаборатории неразогнанный GPU одночиповой видеокарты прогревается в игре настолько сильно. В таком режиме скорость турбины возрастает, и её шум уже чётко выделяется на фоне остальных компонентов.

    Максимальная нагрузка на ускоритель GeForce GTX 480 поднимает температуру GPU ещё выше - до 97 градусов Цельсия! Надо сказать, что сразу по достижении такого значения температуры, турбина начинает работать на максимальной скорости, в результате графический процессор довольно быстро охлаждается. В нашем случае температура снизилась до 91 градуса и не поднималась выше в течение всего теста, при этом скорость турбины не снижалась. Надо сказать, что полученный результат нас несколько обескуражил, поскольку новый одночиповый флагман NVIDIA обошёл по нагреву GPU даже видеокарту GeForce GTX 295 - двухчиповую топ-модель NVIDIA предыдущего поколения. Да, по документам, предоставленным самой NVIDIA, допустимыми являются значения температуры GPU GeForce GTX 480 вплоть до 105 градусов Цельсия. Однако внутри системного блока кроме видеокарты находятся и другие компоненты системы, которые также требуют удержания внутри компьютера безопасных значений температуры. Будущим владельцам GeForce GTX 480 мы настоятельно рекомендуем серьёзно отнестись к организации качественной вентиляции внутри корпуса. Как говорится, дыма без огня не бывает. Посмотрим, сколько электроэнергии потребляет тестовый стенд с разными видеокартами NVIDIA и AMD.

    Без нагрузки система с установленным ускорителем GeForce GTX 480 потребляет примерно столько же электроэнергии, сколько та же система с видеокартой NVIDIA GeForce GTX 295. Прямой конкурент из лагеря AMD оказывается более экономичным решением. Когда на тестовом стенде установлена видеокарта AMD Radeon HD 5870, система потребляет примерно на 30-35 Вт меньше, чем с GeForce GTX 480.

    Во время игры в FarCry2 и в режиме максимальной нагрузки, созданной при помощи теста FurMark 1.8.0, система с установленной видеокартой GeForce GTX 480 обошла всех остальных участников, в том числе и GeForce GTX 295. Разница в энергопотреблении системы с установленной видеокартой AMD Radeon HD 5870 и системы с NVIDIA GeForce GTX 480 составляет около 110-130 Вт, причём не в пользу детища калифорнийцев. Надо сказать, что тесты энергопотребления системы и нагрева GPU говорят не в пользу GeForce GTX 480. Однако люди, покупающие топовые решения, далеко не всегда смотрят на эти параметры. Флагманские решения в первую очередь должны быть максимально технологичны и, что самое главное, производительны. С поддержкой современных технологий у NVIDIA GeForce GTX 480 всё в полном порядке, а вот производительность мы сейчас оценим. Вначале посмотрим на показатели производительности в синтетических тестах:

    Тестирование GeForce GTX 480 в 3DMark Vantage с профилем Performance демонстрирует прирост производительности относительно GeForce GTX 285 на уровне 25%. При этом мы зафиксировали отставание нового флагмана NVIDIA от основного конкурента в лице AMD Radeon HD 5870, разница в результатах составляет примерно 6%.

    С ростом нагрузки видеокарта AMD Radeon HD 5870 начинает понемногу сдавать позиции. В режиме High отрыв от GeForce GTX 480 уже не так заметен, как в режиме Performance, а с переходом к профилю Extreme новый флагман NVIDIA вырывается вперёд, обгоняя ещё и GeForce GTX 295. При всём при этом, двухчиповый флагман AMD – Radeon HD 5970, вне конкуренции. Ещё один синтетический тестовый пакет, ставший популярным почти сразу после выхода – Unigine Heaven v 1.0.

    Видеокарта NVIDIA GeForce GTX 480 обходит своего основного конкурента Radeon HD 5870. Перевес по очкам на стороне NVIDIA как в разрешении 1680x1050, так и 1920x1200. Расстановка сил внутри линейки NVIDIA такова: ускоритель GeForce GTX 480 по уровню производительности находится между GeForce GTX 295 и GeForce GTX 285, отставая от “295-ой” и опережая одночиповый топ предыдущего поколения примерно на 20%.

    Тестирование в DirectX 11 без активации тесселляции показывает примерно те же результаты, что и тест в режиме DirectX 10. В обоих разрешениях по очкам выигрывает GeForce GTX 480. Вне конкуренции по-прежнему AMD Radeon HD 5970. Синтетические тесты позволяют представить лишь примерный уровень производительности видеокарты, поскольку почти всегда “синтетика” работает на движках, отличных от тех, что используются в реальных играх. Именно поэтому результатам таких тестов стоит доверять с осторожностью. Переходим к тестированию в реальных играх.

    Глядя на результаты GeForce GTX 480, полученные в FarCry 2 DirectX 10 Benchmark, хочется воскликнуть “Вот этого мы и ждали!”. Новый флагман NVIDIA значительно оторвался от своего основного конкурента AMD Radeon HD 5870 и довольно близко подошёл к результатам Radeon HD 5970. Отрыв GeForce GTX 480 от Radeon HD 5870 как по минимальному, так и по среднему значению частоты смены кадров составляет порядка 25-30 fps. В сравнении с одночиповым флагманом предыдущего поколения GeForce GTX 285, новинка от NVIDIA оказалась быстрее почти вдвое! Что же до противостояния с NVIDIA GeForce GTX 295, то в FarCry 2 “старичку” также не поздоровилось, GeForce GTX 480 вырвался вперёд.

    Пожилой, но от того не менее технологичный шутер Crysis v 1.2 x64 не выявляет явного лидера в схватке GeForce GTX 480 против AMD Radeon HD 5870. Эти ускорители идут фактически “ноздря в ноздрю”. А вот среди “братьев по оружию” GeForce GTX 480 вырывается вперёд. Особенно эта разница заметна в самом высоком разрешении. Надо сказать, что в этой схватке ускорители AMD Radeon HD 4890, GeForce GTX 260 и даже GeForce GTX 285 выглядят “бедными родственниками”, поскольку на фоне современных Hi-End решений они не могут показать адекватных результатов.

    В игре Colin McRae DiRT 2 все решения NVIDIA показывают отличные результаты. Здесь AMD Radeon HD 5970 уже не является абсолютным лидером. В разрешении 1920x1200 видеокарта GeForce GTX 295 смогла слегка опередить старший ускоритель AMD, хотя разрыв составляет около 1-2 fps. Противостояние GeForce GTX 480 и AMD Radeon HD 5870 закончилось победой GeForce. Разница в производительности в разрешении 1680x1050 составляет около 20 fps как по среднему, так и по минимальному значению частоты смены кадров. С ростом разрешения AMD Radeon HD 5870 заметно сокращает разрыв, хотя новый флагман NVIDIA всё-таки впереди. Отставание GeForce GTX 285 от GeForce GTX 480 в DiRT 2 не так велико, как в ранее протестированных играх. Здесь флагман прошлого поколения демонстрирует хорошую производительность, достаточную для комфортной игры во всех разрешениях.

    При переходе от DirectX 9 к DirectX 11 результаты всех протестированных нами ускорителей снизились. Тем не менее, даже при максимальном разрешении играть в Colin McRae DiRT 2 комфортно и на Radeon HD 5870, и на GeForce GTX 480. Последний, кстати, по прежнему лидирует, опережая своего основного конкурента Radeon HD 5870 как в разрешении 1680x1050, так и в разрешении 1920x1200. Чемпионом во всех разрешениях по-прежнему является Radeon HD 5970.

    Пришло время демонстрации возможностей современных ускорителей в игре S.T.A.L.K.E.R.: Зов Припяти. Во-первых, хотелось бы отметить полное и безоговорочное лидерство топовых ускорителей AMD Radeon HD 5870 и AMD Radeon HD 5970. Разница в результатах между основными конкурентами AMD Radeon HD 5870 и NVIDIA GeForce GTX 480 фактически двукратная! Если честно, выглядит это очень странно. Ещё одна странность Сталкера, так это отношение движка игры к многочиповым тандемам. Обратите внимание на то, что GeForce GTX 295 по минимальному значению fps отстаёт от GeForce GTX 285, аналогично и Radeon HD 5970 отстаёт от Radeon HD 5870.

    Если в разрешении 1680x1050 движок S.T.A.L.K.E.R. позволял комфортно играть на двух топовых ускорителях AMD, то повышение разрешения до 1920x1200 снизило минимальную и среднюю частоту смены кадров на Radeon HD 5870 до таких значений, при которых играть становится не очень комфортно. Ускоритель Radeon HD 5970 всё ещё держится на плаву, хотя просадки частоты смены кадров до 24 fps не приносят радости. Главный герой нашего обзора - GeForce GTX 480, при переходе к более высокому разрешению не потерял темп, а наоборот, прибавил, почти сравнявшись по минимальному значению fps с Radeon HD 5870.

    Переход к DirectX 11 не сказался отрицательно на производительности участников тестирования. Ускоритель GeForce GTX 480 выступает практически наравне с Radeon HD 5870, незначительно отставая на символическую величину в 1 fps. В лидерах, как и прежде, AMD Radeon HD 5970.

    Напоследок, проверим, на что способен GeForce GTX 480 в Resident Evil 5. Новинка от NVIDIA без труда опережает Radeon HD 5870, отрываясь от соперника на 15-20 fps в зависимости от разрешения. Показатели производительности GeForce GTX 480, в целом, оказываются даже лучше оных у GeForce GTX 295, не говоря уже о пожилом по меркам индустрии NVIDIA GeForce GTX 285.

    ⇡ Выводы

    Подводя итоги, хотелось бы остановиться на нескольких моментах. Прежде всего, стоит отметить, что с точки зрения поддерживаемых технологий, паритет в Hi-End сегменте между видеокартами NVIDIA и AMD восстановлен. Более того, в некотором смысле небольшой технологический перевес теперь на стороне “зелёных”, поскольку все современные ускорители NVIDIA помимо DirectX 11, Direct Compute 5, OpenCL и др. поддерживают технологии PhysX и CUDA, используемые в ряде приложений, в том числе и компьютерных играх. Однако если смотреть шире, то компании NVIDIA необходимо проделать немалую работу, поскольку в остальных сегментах рынка у AMD доступна масса решений, превосходящих по технологичности аналоги NVIDIA. Нерешенным для Hi-End ускорителей NVIDIA остался вопрос энергопотребления и тепловыделения. Флагман линейки GeForce - видеокарта GeForce GTX 480, не только не может соперничать по показателям энергоэффективности с Radeon HD 5870, но проигрывает по этим показателям даже GeForce GTX 295! Если говорить о производительности, то, в целом, в базовых, если так можно выразиться, режимах ускоритель NVIDIA GeForce GTX 480 оказывается быстрее своего основного конкурента AMD Radeon HD 5870. Правда, глядя на скоростное преимущество GeForce GTX 480 в некоторых играх и режимах, хочется сказать, что мы ожидали большего превосходства. Тем не менее, окончательно ставить точку в вопросе производительности ещё рано. В скором времени появятся новые драйверы, которые поднимут производительность новинки от NVIDIA и решений от AMD. Кроме того, нам предстоит протестировать топовые ускорители обеих компаний в более тяжёлых графических режимах. Заранее предсказать итоги таких состязаний вряд ли возможно, всё будет зависеть от “запаса прочности” современных GPU. Именно в таких сражениях будет ясно, чья архитектура имеет больший задел на будущее.
    Похожие публикации