Nvidia geforce 8800 gts тесты. Видеокарты

Для начала NVIDIA установила G80 на 2 видеокарты: GeForce 8800 GTX и GeForce 8800 GTS.

Спецификации видеокарт серии GeForce 8800
GeForce 8800 GTX GeForce 8800 GTS
Кол-во транзисторов 681 млн. 681 млн.
Частота ядра (включая распределитель, текстурные блоки, блоки ROP) 575 МГц 500 МГц
Частота шейдеров (потоковых процессоров) 1350 МГц 1200 МГц
Кол-во шейдеров (потоковых процессоров) 128 96
Частота памяти 900 МГц (эффективная 1.8 ГГц) 800 МГц (эффективная 1,6 ГГц)
Интерфейс памяти 384 бит 320 бит
Пропускная способность памяти (ГБ/с) 86,4 ГБ/с 64 ГБ/с
Кол-во ROP блоков 24 20
Объем памяти 768 МБ 640 МБ

Как видите, количество транзисторов у GeForce 8800 GTX и 8800 GTS одинаковое, это потому, что это абсолютно одинаковые GPU G80. Как уже было сказано, основное отличие этих вариантов GPU – 2 отключенных банка потоковых процессоров – всего 32 шейдера. При этом число рабочих шейдерных блоков со 128 у GeForce 8800 GTX уменьшено до 96 у GeForce 8800 GTS. Также NVIDIA отключила 1 ROP (блок растеризации).

Частоты ядер и памяти у этих видеокарт также немного отличаются: частота ядра GeForce 8800 GTX - 575 МГц, у GeForce 8800 GTS – 500 МГц. Шейдерные блоки GTX работают на частоте 1350 МГц, GTS – 1200 МГц. У GeForce 8800 GTS NVIDIA также использует более узкий 320-битный интерфейс памяти и 640 МБ более медленной памяти, которая работает на частоте 800 МГц. У GeForce 8800 GTX 384-битный интерфейс памяти, 768 МБ памяти / 900 МГц. И, конечно, совсем другая цена.

Сами по себе видеокарты сильно отличаются:


Как видно на этих фотографиях, референс-платы GeForce 8800 черные (впервые для NVIDIA). С модулем охлаждения GeForce 8800 GTX и 8800 GTS – двуслотовые. GeForce 8800 GTX немного длиннее, чем GeForce 8800 GTS: её длина – 267 мм, против 229 мм у GeForce 8800 GTS, и, как было заявлено ранее, у GeForce 8800 GTX 2 PCIe разъема питания. Зачем 2? Максимальное энергопотребление GeForce 8800 GTX – 177 Вт. Однако в NVIDIA говорят, что это может быть только в крайнем случае, когда все функциональные блоки GPU будут максимально загружены, а в обычных играх при тестировании видеокарта потребляла в среднем 116 - 120 Вт, максимум – 145 Вт.

Так как каждый внешний разъём питания PCIe на самой видеокарте рассчитан максимум на 75 Вт, и слот PCIe тоже рассчитан максимум на 75 Вт, то 2-х этих разъемов буден недостаточно для подвода 177 Вт, поэтому пришлось сделать 2 внешних разъёма питания PCIe. Добавив второй разъём, NVIDIA обеспечила 8800 GTX солидный запас мощности. Кстати, максимальное энергопотребление у 8800 GTS – 147 Вт, так что она может обойтись и одним разъёмом питания PCIe.

Другая особенность, добавленная в дизайн референсной платы GeForce 8800 GTX – второй разъём SLI – впервые для GPU NVIDIA. NVIDIA о назначении второго разъёма SLI официально ничего не сообщает, но журналистам удалось получить от разработчиков такую информацию: “Второй разъём SLI у GeForce 8800 GTX предназначен для аппаратной поддержки возможного расширения SLI конфигурации. С текущими драйверами используется только один разъём SLI. Пользователи могут подключать SLI мост, как на первые, так и на вторые контактные группы”.

Основываясь на этом, и том, что материнские платы nForce 680i SLI выпускаются с тремя слотами PCI Express (PEG), можно прийти к выводу, что в ближайшем будущем NVIDIA планирует осуществить поддержку трех SLI-видеокарт. Ещё одним вариантом может быть увеличение мощности для SLI физики, но это не объясняет, почему GeForce 8800 GTS не имеет второго разъёма SLI.

Можно предположить, что NVIDIA, резервирует свою GX2 “Quad SLI” технологию для менее мощной видеокарты GeForce 8800 GTS, в то время как более мощная GeForce 8800 GTX будет работать в тройной SLI конфигурации.

Если Вы помните, оригинальные Quad SLI видеокарты NVIDIA по своим характеристикам ближе к GeForce 7900 GT, чем к GeForce 7900 GTX, так как у видеокарт 7900 GT более низкое энергопотребление / тепловыделение. Вполне естественно предположить, что NVIDIA пойдет по тому же пути и в случае с GeForce 8800. Геймеры с материнскими платами с тремя PEG слотами смогут увеличить быстродействие графической подсистемы, собрав тройную SLI 8800 GTX конфигурацию, что в некоторых случаях даст им лучшую производительность, чем Quad SLI система, если судить по характеристикам 8800 GTS.

Повторимся, что это всего лишь предположение.

Блок охлаждения у GeForce 8800 GTS и 8800 GTX сделан двуслотовым, каналированным, выводящим горячий воздух от GPU за пределы корпуса компьютера. Радиатор охлаждения состоит из большого алюминиевого радиатора, медных и алюминиевых тепловых трубок и медной пластины, которая прижимается к GPU. Вся эта конструкция обдувается большим вентилятором радиального типа, который смотрится немного пугающе, но на самом деле работает довольно тихо. Система охлаждения 8800 GTX похожа на систему охлаждения 8800 GTS, только у первой немного длиннее радиатор.


В общем, новый кулер справляется с охлаждением графического процессора довольно хорошо, и при этом почти бесшумный – как у видеокарт GeForce 7900 GTX и 7800 GTX 512MB, но GeForce 8800 GTS и 8800 GTX слышно чуть сильнее. В некоторых корпусах, чтобы услышать шум от вентилятора видеокарт, нужно будет хорошо прислушаться.

Производство

Всё производство GeForce 8800 GTX и 8800 GTS осуществляется по контракту NVIDIA. Это означает, что купите ли Вы видеокарту ASUS, EVGA, PNY, XFX или любого другого производителя, все они изготовлены одной компанией. NVIDIA даже не позволяет производителям разгонять первые партии видеокарт GeForce 8800 GTX и GTS: они все поступают в продажу с одинаковыми тактовыми частотами независимо от производителя. Но им разрешается устанавливать свои системы охлаждения.

Например, компания EVGA уже выпустила свою версию e-GeForce 8800 GTX ACS3 Edition со своим уникальным кулером ACS3. Видеокарта ACS3 спрятана в едином большом алюминиевом коконе. На нем нанесены буквы E-V-G-A. Для дополнительного охлаждения на тыльной стороне видеокарты EVGA разместила дополнительный радиатор, прямо напротив GPU G80.

Помимо охлаждения, изготовители первых видеокарт GeForce 8800 могут индивидуализировать свои изделия только гарантийными обязательствами и комплектацией – игры и аксессуары. Например, компания EVGA комплектует свои видеокарты игрой Dark Messiah, видеокарта GeForce 8800 GTS BFG продается с футболкой BFG и ковриком для мышки.

Интересно будет посмотреть, что будет дальше – многие партнеры NVIDIA полагают, что для последующих выпусков видеокарт GeForce 8800 ограничения NVIDIA будут не такими жесткими, и они смогут соревноваться в разгоне.

Так как все видеокарты сходят с одного конвейера, то все GeForce 8800 поддерживают 2 разъёма dual-link DVI и HDCP. Кроме того, стало известно, что NVIDIA не планирует менять объем памяти у GeForce 8800 GTX и GTS (например, 256 МБ GeForce 8800 GTS или 512 МБ 8800 GTX). По крайней мере, пока стандартная конфигурация для GeForce 8800 GTX – 768 МБ, а GeForce 8800 GTS – 640 МБ. У NVIDIA нет также планов делать AGP версию видеокарт GeForce 8800 GTX/GTS.

Драйвер для 8800

NVIDIA сделала несколько изменений в драйвере GeForce 8800, о которых нужно непременно сказать. Прежде всего, убрана традиционная утилита разгона Coolbits, вместо неё – NVIDIA nTune. То есть, если Вы хотите разогнать видеокарту GeForce 8800, нужно будет скачать утилиту nTune. Вероятно, это хорошо для обладателей материнских плат на чипсете nForce, так как утилиту nTune можно использовать не только для разгона видеокарты, но и для конфигурации системы. В противном случае, те, например, кто успел сделать апгрейд до Core 2 и имеет материнскую плату с чипсетом 975X или P965, для разгона видеокарты должны будут скачать 30 МБ приложение.

Другое изменение у нового драйвера, на которое мы обратили внимание – нет опции перехода к классической панели управления NVIDIA. Хочется верить, что NVIDIA вернет эту функцию в свой видеодрайвер, так как она нравилась многим, в отличие от нового интерфейса панели управления NVIDIA.

За более чем год, прошедший с момента выхода видеокарт на чипах NVIDIA линейки GeForce 8800, на рынке графических ускорителей сложилась крайне невыгодная для конечного покупателя ситуация. Фактически, у оверклокера, способного выложить за топовые видеокарты кругленькую сумму денег, попросту не было альтернативы. Конкурент от ATI(AMD) появился позже и, в конечном итоге, так и не смог составить достойную конкуренцию GeForce 8800 GTX, а в последствии и Ultra версии NVIDIA GeForce 8800. Поэтому маркетологи NVIDIA без особого труда смекнули, что при отсутствии конкуренции снижать стоимость топовых видеокарт вовсе не обязательно. В результате чего на протяжении всего этого периода цены на GeForce 8800 GTX и Ultra держались на одном очень высоком уровне, и позволить себе такие видеокарты могли лишь не многие.

Однако, верхний ценовой сегмент никогда не был определяющим и приоритетным для производителей графических чипов и видеокарт. Да, лидерство в этом классе безусловно престижно для любой компании, но с экономической точки зрения наиболее выгодным является средний ценовой диапазон. Тем не менее, как показали недавние тесты претендующих на верховенство в среднем классе AMD Radeon HD 3850 и 3870, производительность таких видеокарт неудовлетворительная для современных игр и в принципе неприемлемая для их качественных режимов. NVIDIA GeForce 8800 GT быстрее этой пары, но также недотягивает до комфортности в DirectX 10 играх. Что следом за ним, если есть возможность доплатить? До вчерашнего дня фактически ничего и не было, так как между GT и GTX буквально пропасть в ценовом выражении и всё.

Но технический прогресс не стоит на месте – появление нового чипа NVIDIA G92, выпускаемого по 65-нм технологии, позволило компании не только привлечь оверклокеров вполне удачной видеокартой GeForce 8800 GT, но и вчера, 11 декабря в 17 часов по московскому времени, анонсировать новинку – GeForce 8800 GTS 512 Мб . Несмотря на вполне незамысловатое название видеокарты, новый графический ускоритель имеет ряд существенных отличий от обычной версии GeForce 8800 GTS. В сегодняшнем материале мы с вами познакомимся с одной из первых видеокарт GeForce 8800 GTS 512 Мб, появляющихся на российском рынке, проверим её температурный режим и оверклокерский потенциал, и, конечно же, изучим производительность новинки.

реклама

1. Технические характеристики видеокарт, участвующих в тестировании

Технические характеристики новинки представлены вашему вниманию в нижеследующей таблице в сравнении с видеокартами NVIDIA семейства GeForce 8800:

Наименование технических
характеристик
NVIDIA GeForce
8800 GT 8800 GTS 8800 GTS
512 Мб
8800
GTX / Ultra
Графический процессор G92 (TSMC) G80 (TSMC) G92 (TSMC) G80 (TSMC)
Техпроцесс, нм 65 (low-k) 90 (low-k) 65 (low-k) 90 (low-k)
Площадь ядра, кв.мм 330 484 330 484
Число транзисторов, млн. 754 681 754 681
Частота графического процессора, МГц 600
(1512 shader)
513
(1188 shader)
650
(1625 shader)
575 / 612
(1350 / 1500
shader)
Эффективная частота работы
видеопамяти, МГц
1800 1584 1940 1800 / 2160
Объем памяти, Мб 256 / 512 320 / 640 512 768
Тип поддерживаемой памяти GDDR3
Разрядность шины обмена с памятью, бит 256
(4 x 64)
320 256
(4 x 64)
384
Интерфейс PCI-Express
x16 (v2.0)
PCI-Express
x16 (v1.x)
PCI-Express
x16 (v2.0)
PCI-Express
x16 (v1.x)
Число унифицированных шейдерных
процессоров, шт.
112 96 128
Число текстурных блоков, шт. 56 (28) 24 64 (32) 32
Число блоков растеризации (ROP’s), шт. 16 20 16 24
Поддержка версии Pixel Shaders / Vertex
Shaders
4.0 / 4.0
Полоса пропускания видеопамяти, Гб/сек ~57.6 ~61.9 ~62.1 ~86.4 / ~103.7

закраски, Гпикс./сек
~9.6 ~10.3 ~10.4 ~13.8 / ~14.7
Теоретическая максимальная скорость
выборки текстур, Гтекс./сек
~33.6 ~24.0 ~41.6 ~36.8 / ~39.2
Пиковая потребляемая мощность в
3D-режиме работы, Ватт
~106 ~180
Требования к мощности блока питания,
Ватт
~400 ~400 ~400 ~450 / ~550
Размеры видеокарты референсного
дизайна, мм (Д х В х Т)
220 х 100 х 15 228 х 100 х 39 220 х 100 х 32 270 х 100 х 38
Выходы 2 х DVI-I
(Dual-Link),
TV-Out, HDTV-
Out, HDCP
2 х DVI-I
(Dual-Link),
TV-Out,
HDTV-Out
2 х DVI-I
(Dual-Link),
TV-Out, HDTV-
Out, HDCP
2 х DVI-I
(Dual-Link),
TV-Out,
HDTV-Out
Дополнительно поддержка SLI
Рекомендованная стоимость, долларов США 199 / 249 349 ~ 399 299~349 499~599 / 699

2. Обзор BFG GeForce 8800 GTS 512 Мб OC (BFGR88512GTSE)

Новейшая видеокарта от хорошо известной оверклокерам компании поставляется в очень компактной коробке, оформленной в тёмных тонах.

8800 GTX стало эпохальным событием в истории 3D-графики. Это была первая карта с поддержкой DirectX 10 и связанной с ним единой модели шейдера, что значительно повысило качество изображения по сравнению с предыдущими поколениями, и в плане производительности она долго оставалась без конкурентов. К сожалению, вся эта мощь и стоила соответственно. Учитывая ожидаемую конкуренцию со стороны ATI и выпуск более дешевых моделей среднего уровня на основе той же технологии, GTX считалась картой, ориентированной лишь на тех энтузиастов, которые хотели быть на переднем крае современных достижений в области обработки графики.

История модели

Чтобы исправить эту ситуацию, компания nVidia через месяц выпустила карту той же линейки GTS 640MB, а еще через пару месяцев - GTS 320MB. Обе предлагали близкую к GTX производительность, но по гораздо более разумной цене. Однако при стоимости около 300-350 долларов они все еще были слишком дорогими для геймеров с ограниченным бюджетом - это были модели не среднего, а высокого класса. Оглядываясь назад, можно сказать, что GTS стоили каждого вложенного в них цента, поскольку то, что последовало за ними в течение оставшейся части 2007 года, вызывало одно разочарование вслед за другим.

Первыми появились карты предполагаемого среднего ценового диапазона 8600 GTS и GT, представлявшие собой сильно урезанные версии серии 8800. Они были меньше и тише и имели новые возможности обработки HD-видео, но их производительность оказалась ниже ожидаемого уровня. Приобретение их было нецелесообразным, хотя стоили они относительно недорого. Альтернативная видеокарта ATI Radeon HD 2900 XT соответствовала GTS 640MB в плане быстродействия, но под нагрузкой потребляла огромное количество энергии и была слишком дорогой, чтобы относиться к среднему диапазону. Наконец, компания ATI попыталась выпустить серию DX10 в форме HD 2600 ХТ и Pro, мультимедийные возможности которых были даже лучше, чем у nVidia 8600, но им не хватило мощности, чтобы стать достойными внимания геймеров, уже купивших видеокарты предыдущего поколения, такие как X1950 Pro или 7900 GS.

И вот спустя год после начала продаж 8800 GTX c выпуском 8800 GT появилось первое настоящее обновление модели с поддержкой DirectX 10. Хотя для этого потребовалось много времени, но у nVidia GeForce 8800 GT характеристики соответствовали модели GTS, а стоимость - в пределах 200-250 долларов, наконец, достигла того среднего ценового диапазона, которого все так долго ждали. Но что сделало карту такой особенной?

Больше - не значит лучше

По мере развития технологий и числа транзисторов в ЦПУ и ГПУ возникает естественная необходимость в уменьшении их размеров. Это ведет к снижению энергопотребления, что, в свою очередь, означает, меньший нагрев. На одном кристалле кремния умещается больше процессоров, что снижает их себестоимость и теоретически дает нижний предел цены на изготовленное из них оборудование. Однако изменение производственных процессов представляет высокие риски для бизнеса, поэтому принято выпускать абсолютно новую архитектуру на уже существующих и опробованных технологиях, как это было в случае с 8800 GTX и HD 2900 ХТ. С усовершенствованием архитектуры происходит переход на менее энергоемкое аппаратное обеспечение, на котором позже снова базируется новый дизайн.

По этому пути следовала серия 8800 с ядрами G80 у GTX и GTS, производимыми по 90-нм технологии, а nVidia GeForce 8800 GT основана на чипе G92, сделанном уже с использованием 65-нм процесса. Хотя изменение кажется не очень большим, оно равнозначно 34% сокращению размера подложки или 34% увеличению числа процессоров на кремниевой пластине. В итоге электронные компоненты становятся меньше, дешевле, более экономичными, что является исключительно положительным изменением. Впрочем, ядро G92 не просто уменьшилось, есть еще кое-что.

Прежде всего, движок обработки видео VP2, который использовался в серии 8600, теперь появился в GeForce 8800 GT 512MB. Так что теперь есть возможность наслаждаться видео высокой четкости без торможения системы. Окончательный движок дисплея, который управляется отдельным чипом на 8800 GTX также интегрирован в G92. В результате на кристалле стало на 73 миллиона транзисторов больше, чем у 8800 GTX (754 млн против 681 млн), хотя количество потоковых процессоров, мощностей для обработки текстуры и ROP стало меньше, чем у более мощной модели.

Новая версия алгоритма прозрачного сглаживания nVidia, добавленная в арсенал GeForce 8800 GT, призвана значительно улучшить качество изображения, сохраняя высокую производительность системы. Помимо этого, новых графических возможностей новый процессор не прибавил.

Компания-производитель, видимо, долго размышляла над тем, какой именно функционал предыдущих карт серии 8800 не использовался в полной мере и мог быть сокращен, а какой следовало оставить. Результатом стал дизайн графического процессора, который, с точки зрения показателей работы, расположился где-то между GTX и GTS, но с функционалом GTS. В итоге карта 8800 GTS стала совершенно излишней. 8800 Ultra и GTX по-прежнему обеспечивают более высокую графическую мощность, но с меньшим количеством функций, по гораздо большей цене и с высоким энергопотреблением. На этом фоне карта GeForce 8800 GT 512 МБ действительно заняла сильные позиции.

Архитектура графического процессора

В видеокарте GeForce 8800 GT использована та же унифицированная архитектура, которую компания nVidia представила, когда впервые сообщила о выпуске процессора G80. G92 состоит из 754 млн транзисторов и изготовлен по 65-нм процессу TSMC. Размер подложки составляет около 330 мм 2 , и хотя это заметно меньше, чем у G80, еще далеко до того, чтобы называться маленьким кусочком кремния. В общей сложности имеется 112 ядер скалярного потока, которые в стандартной конфигурации работают на частоте 1500 МГц. Они сгруппированы в 7 кластеров, каждый из которых имеет 16 потоковых процессоров, которые делят 8 адресных блоков текстур, 8 секций текстурных фильтров и собственный независимый кэш. Это такая же конфигурация, которую nVidia использовала в чипах G84 и G86 на уровне шейдерных кластеров, но G92 - гораздо более сложное ГПУ, чем любой из них.

Каждый из шейдерных процессоров за один такт может формировать две команды MADD и MUL, объединенные в единую структуру блоки могут обрабатывать все шейдерные операции и расчеты, которые поступают как в целочисленной, так и в форме с плавающей запятой. Любопытно, однако, что, несмотря на возможности потоковых процессоров быть такими же, как G80 (кроме количества и частоты), nVidia утверждает, что чип может совершать до 336 GFLOPS. Однако для вычисления NADD и MUL требуется скорость 504 GFLOPS. Как оказалось, компания-производитель использовала консервативный подход к определению вычислительной мощности и в расчете общей производительности не учла MUL. На брифингах и круглых столах представители nVidia рассказали, что некоторые архитектурные усовершенствования должны позволить чипу приблизиться к его теоретически максимальной пропускной способности. В частности, был улучшен диспетчер задач, распределяющий и уравновешивающий данные, которые поступают по конвейеру. NVidia объявила, что будет поддерживать двойную точность будущих графических процессоров, но данный чип ее лишь эмулирует, что связано с необходимостью следовать стандартам IEEE.

Архитектура ROP

Структура ROP у G92 похожа на строение любого другого графического процессора семейства GeForce восьмой серии. Это значит, что каждая секция имеет кэш второго уровня и назначена к 64-битному каналу памяти. В общей сложности есть 4 секции ROP и 256-битный интерфейс хранилища данных. Каждая из них способна обрабатывать 4 пикселя за такт, если каждый из них задан четырьмя параметрами (цветом RGB и Z). Если представлен только Z-компонент, то каждая секция может обрабатывать 32 пикселя за такт.

ROP поддерживают все распространенные форматы сглаживания, использовавшиеся в ГПУ предыдущих моделей восьмой серии GeForce. Так как чип имеет 256-битный интерфейс GDDR, nVidia решила сделать некоторые улучшения в эффективности сжатия ROP, чтобы сократить использование полосы пропускания и графической памяти при включенном сглаживании в разрешениях 1600х1200 и 1920х1200.

Как производная от оригинальной архитектуры G80, блоки фильтров и адресов текстур, а также секции ROP работают на тактовой частоте, отличной от частоты потоковых процессоров. Компания nVidia называет это основной скоростью. В случае GeForce 8800 GT характеристики видеокарты определяются частотой 600 МГц. Теоретически это приводит к скорости заполнения 9600 гигапикселей в секунду (Гп/с) и билинейной скорости закраски текстур 33,6 Гп/с. По мнению пользователей, тактовая частота очень занижена, а рост числа транзисторов не гарантирует добавления или сохранения функциональных возможностей. Когда компания перешла со 110-нм на 90-нм технологию, благодаря оптимизации она снизила число транзисторов на 10%. Поэтому будет неудивительно, если на чипе окажется еще как минимум 16 потоковых процессоров, отключенных в данном продукте.

Конструктивное исполнение

Эталонный дизайн карты предусматривает работу ядра, блока шейдеров и памяти на частоте 600 МГц, 1500 МГц и 1800 МГц соответственно. 8800 GT отличается однослотовой системой охлаждения, а глянцевый черный металлический кожух почти полностью скрывает ее лицевую сторону. Вентилятор диаметром 50 мм соответствует конструкции радиальных кулеров топ-моделей и выполняет свои обязанности очень тихо во всех режимах работы. Неважно, работает ли компьютер вхолостую, загруженный лишь рабочим столом Windows, или запущена любимая игра - его практически не будет слышно на фоне других источников шума в корпусе ПК. Однако стоит отметить, что при первом включении компьютера с новой видеокартой можно испугаться. Вентилятор начинает завывать, когда графический процессор загружен на полную мощность, но шум стихает еще до появления рабочего стола.

Металлическая лицевая панель притягивает отпечатки пальцев, но это мало должно волновать, так как после установки увидеть их будет невозможно. По отзывам пользователей, крышка помогает предотвратить случайное повреждение компонентов, таких как конденсаторы, на лицевой стороне карты. Печатная плата, окрашенная в зеленый цвет, в сочетании с черной лицевой панелью радиатора, обеспечивает 8800 GT узнаваемость. Модель маркирована логотипом GeForce вдоль верхнего края лицевой панели. Марк Рейн, вице-президент компании, сказал журналистам, что это повлекло дополнительные расходы, но было необходимо, чтобы помочь пользователям разобраться, какая видеокарта является сердцем системы на LAN-вечеринках.

Под радиатором скрываются восемь 512-мегабитных чипов графической памяти, что в общей сложности дает 512 МБ объема хранилища данных. Это GDDR3 DRAM с эффективной частотой до 2000 МГц. Графический процессор поддерживает как GDDR3, так и GDDR4, но в данной серии эта возможность так и не была использована.

Нагрев и потребляемая мощность

Видеокарта nVidia GeForce 8800 GT очень сексапильна. Ее дизайн просто очень приятен для глаз и, с учетом внутренних изменений в G92, от нее исходит ощущение выдержанного дизайна.

Более важным, чем эстетические аспекты, однако, по мнению пользователей является факт, что производителю удалось вместить всю мощь в однослотовое устройство. Это не просто желанное изменение, оно приятно удивляет. У GeForce 8800 GT характеристики таковы, что можно предположить наличие кулера высотой в два слота. Причиной того, почему nVidia обошлась таким тонким дизайном, стали изменения в процессе производства, которые позволили снизить нагрев до уровня, с которым смог справиться низкопрофильный вентилятор. На самом деле температурный режим снизился настолько, что даже сравнительно небольшой кулер не должен вращаться очень быстро, в результате чего карта остается практически бесшумной даже во время обработки интенсивных игр. Однако температура платы значительно повышается, поэтому требуется значительное количество воздуха для предотвращения перегрева. В результате уменьшения технологического процесса GeForce 8800 GT 512 MB потребляет лишь 105 Вт даже при полной нагрузке. Таким образом, требуется только один шестиконтактный разъем питания. Это еще одно приятное изменение.

Карта первая стала поддерживать PCIe 2.0, позволяющий получать мощность до 150 Вт. Однако в компании посчитали, что для обратной совместимости гораздо проще ограничить питание через него 75 ваттами. Это значит, что независимо от того, подключена карта к материнским платам с PCIe 1.1 или PCIe 2.0, через разъем поступает лишь 75 Вт, а остальная энергия поступает через дополнительный разъем.

Процессор VP2

Говоря о возможности передачи сигналов HDCP, стоит коснуться видеопроцессора нового поколения, который компания nVidia инкорпорировала в G92. VP2 является единым программируемым SIMD-процессором, гибкость которого позволяет ему расширяться в будущем. Он обеспечивает очень интенсивную обработку видео, кодированного в H.264, перекладывая нагрузку с ЦПУ на ГПУ. В дополнение к VP2 есть также потоковый процессор H.264 и дешифратор AES128. Первый из них специально разработан для ускорения схем кодирования CAVLC и CABAC - задач, которые очень загружают центральный процессор в чисто программной среде. AES128 позволяет быстрее обрабатывать протокол шифрования, необходимый для таких схем безопасности видеоконтента, как AACS и Media Foundation. Обе эти схемы требуют кодирования видеоданных (как сжатых, так и несжатых) при передаче по шинам, подобным PCI-Express.

Улучшение качества изображения

Компания nVidia упорно пытается улучшить технику прозрачного сглаживания, которая впервые появилась в 7-ой серии GeForce. Мультисэмплинг мало снижает производительность карты, но в большинстве случаев не является эффективным. С другой стороны, суперсэиплинг обеспечивает намного лучшее и более стабильное качество изображения, но за счет снижения скорости работы -- это невероятно ресурсоемкий способ сглаживания.

Драйвера, которые поставляются вместе с видеокартой, содержат новый алгоритм мультисэмплинга. Различия довольно значительные, но окончательное решение принимает сам пользователь. Хорошая новость заключается в том, что так как это изменение на уровне драйвера, то любое оборудование, которое поддерживает прозрачное сглаживание, может использовать новый алгоритм, в том числе карты, выпущенные после GeForce 7800 GTX. Чтобы активировать новый режим, нужно просто скачать последние обновления на сайте производителя.

По отзывам пользователей, для GeForce 8800 GT драйвер обновить труда не составит. Хотя веб-страница видеокарты содержит лишь ссылки на файлы для ОС Windows Vista и XP, поиск с главной страницы позволяет найти необходимое. Для nVidia GeForce 8800 GT драйвера Windows 7-10 устанавливаются утилитой GeForce 342.01 Driver объемом 292 МБ.

Возможности подключения

Выходные разъемы у nVidia GeForce 8800 GT вполне стандартные - 2 двухканальных DVI-I-порта с поддержкой HDCP, которые подходят как для аналоговых, так и цифровых интерфейсов мониторов и телевизоров, а 7-контактный аналоговый видеопорт обеспечивает обычный композитный и компонентный выход. Разъемы DVI можно использовать в сочетании с переходником DVI-VGA и DVI-HDMI, так что возможен любой вариант подключения. Тем не менее nVidia по-прежнему делает поддержку аудио для использования с разъемами HDMI опциональным вариантом для сторонних производителей - внутри VP2 аудиопроцессор отсутствует, поэтому звук реализуется через разъем S/PDIF на плате. Это разочаровывает, так как тонкая и тихая карта идеально подходит для игровых домашних кинотеатров.

GeForce 8800 GT является первой графической системой, совместимой с PCI Express 2.0, что означает возможность обращения к памяти со скоростью 16 ГБ/с. - в два раза быстрее предыдущего стандарта. Хотя это может быть полезным для рабочих станций и выполнения интенсивных вычислений, рядовому геймеру это не пригодится. В любом случае стандарт полностью совместим со всеми предыдущими версиями PCIe, поэтому беспокоиться не о чем.

Компании-партнеры nVidia предлагают разогнанные версии GeForce 8800 GT, а также пакеты с играми.

BioShock от 2К Games

BioShock являлась одной из лучших игр, существовавших на момент выпуска видеокарты. Это «генетически модифицированный» шутер от первого лица, события которого разворачиваются в подводном городе Rapture, созданном на дне Атлантического океана человеком по имени Эндрю Райан как часть реализации его мечты в стиле арт-деко 1930 годов. 2К Boston и 2K Australia лицензировали и использовали Unreal Engine 3 компании Epic Games, чтобы добиться лучшего эффекта, а также применили некоторые возможности DirectX 10. Все это управляется через опцию на панели управления графикой игры.

Место действия BioShock вынудило разработчиков использовать много шейдеров воды. Технология DirectX 10 помогла улучшить рябь при движении персонажей по воде, а для создания мокрых объектов и поверхностей массово использовались пиксельные шейдеры. Кроме того, DX10-версия игры использует буфер глубины для создания «мягких» эффектов частиц, при которых они взаимодействуют со своим окружением и выглядят более реалистично.

nVidia GeForce 8800 GT, характеристики которой позволяют ей в игре BioShock проявить себя с сильной стороны, на разрешении 1680x1050 лишь немного уступает GTX. При увеличении этого параметра разрыв между картами увеличивается, но не с большим отрывом. Причиной этого, вероятно, является тот факт, что игра не поддерживала прозрачное сглаживание, и массивное преимущество 8800 GTX в пропускной способности памяти становится спорным.

По отзывам пользователей, 8800 GT также достаточно хорошо работает со включенным SLI. Хотя ее возможности и близко не соответствуют GTX, видеокарте Radeon HD 2900 ХТ с объемом памяти 512 МБ в конфигурации CrossFire конкуренцию она составляет. Наверное, еще более интересным является факт, что на разрешении 1920х1200 видеокарта 8800 GT почти так же быстра, как GTS 640 МБ!

Crysis Syngle Player Demo от Electronic Arts

Эта игра заставит видеокарту плакать в буквальном смысле! Большим сюрпризом стала ее графика - она превзошла все, что было в компьютерных играх до нее. Тестирование с помощью встроенного определителя быстродействия графического процессора проходит намного быстрее, чем в действительности. Около 25 к/с в тесте производительности достаточно, чтобы получить приемлемую для пользователя частоту кадров. В отличие от других игр низкий фреймрейт здесь по-прежнему выглядит довольно ровно.

Видеокарта nVidia GeForce 8800 GT, характеристики которой в Crysis позволяют добиться достаточной частоты кадров на разрешении 1680x1050 с высокой детализацией под DirectX 10, не так быстра, как GTX, но заметно производительнее Radeon HD 2900 ХТ и 8800 GTS 640MB. GTS 320MB с трудом справляется с Crysis и потребуется снизить большинство настроек до средних, чтобы получить фреймрейт выше 25 к/с даже при качестве изображения 1280 х 1024 точек.

Производительность

Как и следовало ожидать, 8800 GTX осталась непревзойденной, но в целом GeForce 8800 GT GTS опережает в большинстве тестов. На самых высоких разрешениях и установках сглаживания сниженная пропускная способность памяти GT подводит и GTS время от времени вырывается вперед. Однако учитывая разницу в цене и другие преимущества, 8800 GT лучше в любом случае. И наоборот, сравнение GeForce GTX 8800/GT 8800 каждый раз подтверждает, почему первая карта стоит так дорого. В то время как другие модели начинают существенно тормозить с ростом количества точек изображения, с применением прозрачного сглаживания и анизотропной фильтрации, 8800 GTX продолжает демонстрировать отличные результаты. В частности, Team Fortress 2 при разрешении 1920x1200 с 8хАА и 16xAF на 8800 GTX идет вдвое быстрее, чем на GT. Однако по большей части видеокарта GeForce 8800 GT показывает хорошую производительность. Конечно, если не принимать во внимание невероятно низкую частоту кадров в Crysis.

Заключение

Хотя характеристики видеокарты GeForce 8800 GT и не превзошли спецификации лидера серии 8800 GTX, она обеспечивает близкую производительность за малую долю цены, а также включает много дополнительных возможностей. А если сюда добавить небольшие размеры и тихую работу, то модель покажется просто феноменальной.

В нашем прошлом материале мы взглянули на то, что происходит в нижнем ценовом диапазоне, в котором не так давно появились новинки от AMD — серии Radeon HD 3400 и HD 3600. Сегодня мы несколько поднимем наш взор в иерархии карт и поговорим о старших моделях. Героем нашего обзора на этот раз станет GeForce 8800 GTS 512 МБ .

Что же собой представляет GeForce 8800 GTS 512 МБ? Название, прямо скажем, не дает однозначного ответа. С одной стороны, это каким-то образом напоминает прошлые топовые решения на чипе G80. С другой стороны, объем памяти — 512 МБ, т. е. меньше, чем у соответствующих предшественников. В результате, выходит, что индекс GTS вкупе с числом 512 просто-напросто вводит в заблуждение потенциального покупателя. А ведь на самом деле речь идет, если не о самом быстром, то, в любом случае, одном из самых быстрых графических решений, представленных на данный момент компанией NVIDIA. И основана данная карта вовсе не на уходящем в прошлое G80, а на куда более прогрессивном G92, на котором, кстати, базировалась GeForce 8800 GT. Чтобы внести еще большую ясность в описание сущности GeForce 8800 GTS 512 МБ, перейдем непосредственно к характеристикам.

Сравнительные характеристики GeForce 8800 GTS 512 МБ

Модель Radeon HD 3870 GeForce 8800 GT GeForce 8800 GTS 640 МБ GeForce 8800 GTS 512 МБ GeForce 8800 GTX
Кодовое название ядра RV670 G92 G80 G92 G80
Тех. процесс, нм 65 65 90 65 90
Количество потоковых процессоров 320 112 96 128 128
Количество текстурных блоков 16 56 24 64 32
Количество блоков блендинга 16 16 20 16 24
Частота ядра, МГц 775 600 513 650 575
Частота шейдерного блока, МГц 775 1500 1180 1625 1350
Эффективная частота видеопамяти, МГц 2250 1800 1600 1940 1800
Объем видеопамяти, МБ 512 256 / 512 / 1024 320 / 640 512 768
Разрядность шины обмена данных, Бит 256 256 320 256 384
Тип видеопамяти GDDR3 / GDDR4 GDDR3 GDDR3 GDDR3 GDDR3
Интерфейс PCI-Express 2.0 PCI-Express 2.0 PCI-Express PCI-Express 2.0 PCI-Express

Взглянем на приведенную выше таблицу. На основе этих данных мы можем сделать вывод, что перед нами вполне оформленное и крепкое решение, способное наравне тягаться с текущими топами калифорнийской компании. По сути, мы имеем полноценный чип G92 с поднятыми частотами и очень быструю GDDR3 память, работающую почти на 2 ГГц. Кстати, о том, что в изначальном варианте G92 должен был иметь именно 128 потоковых процессоров и 64 текстурных блока мы говорили еще в обзоре GeForce 8800 GT. Как видите, для модели с индексом GT не просто так был выделен несколько урезанный чип. Данный ход позволил несколько разграничить сегмент производительных видеокарт и создать в нем еще более совершенный продукт. Тем более, что именно сейчас производство G92 уже прекрасно налажено и число чипов, способных работать на частотах более 600 МГц довольно велико. Впрочем, даже в первых ревизиях G92 довольно легко покорял 700 МГц. Сами понимаете, что теперь этот рубеж не является пределом. В этом мы еще успеем убедиться по ходу материала.

Итак, перед нами продукт компании XFX — видеокарта GeForce 8800 GTS 512 МБ. Именно данная модель и станет сегодня объектом нашего пристального изучения.

Наконец, перед нами сама плата. Основой для продукта XFX служит референс-дизайн, поэтому все, что будет сказано относительно данного продукта, можно отнести и к большинству решений других компаний. Ведь не для кого ни секрет, что на сегодняшний день подавляющее число производителей базируют дизайн своей продукции именно на том, что предлагает NVIDIA.

В отношении GeForce 8800 GTS 512 МБ нельзя не заметить, что печатная плата позаимствована у GeForce 8800 GT. Она значительно упрощена относительно видеокарт на G80, однако полностью отвечает требованиям новой архитектуры. В результате, можно сделать вывод, что выпуск GeForce 8800 GTS 512 МБ вряд ли был чем-то осложнен. Мы имеем ту же PCB и почти тот же чип, что и у предшественницы с индексом GT.

Что касается размеров рассматриваемой видеокарты, то в этом плане она полностью соответствует GeForce 8800 GTS 640 МБ. В чем вы можете убедиться сами на основе приведенного фото.

NVIDIA сочла нужным внести изменения в системе охлаждения. Она претерпела серьезные изменения и теперь напоминает своим видом все-таки кулер классической GeForce 8800 GTS 640 МБ, нежели GeForce 8800 GT.

Конструктив кулера достаточно прост. Он состоит из алюминиевого оребрения, продувом которой занимается соответствующая турбина. Пластины радиатора пронизывают медные тепловые трубки диаметром 6 мм каждая. Контакт с чипом осуществляется посредством медной подошвы. Тепло снимается с основания и переносится на радиатор, где и впоследствии рассеивается.

Наш экземпляр GeForce 8800 GTS был оснащен чипом G92 ревизии А2, выпущенным на Тайване. Память набрана 8-ю чипами производства Qimonda со временем выборки 1.0 нс.

Наконец, мы вставили видеокарту в слот PCI-E. Плата без проблем определилась и позволила установить драйвера. Не возникло трудностей и в отношении вспомогательного софта. GPU-Z вполне корректно выводил всю необходимую информацию.

Частота GPU составляет 678 МГц, памяти — 1970 МГц, шейдерного домена — 1700 МГц. В результате, мы вновь видим, что XFX не изменяет себе в привычке, поднимать частоты выше заводских. Правда, на этот раз прибавка невелика. Но обычно в ассортименте компании достаточно много карт одной серии, различающихся частотами. Некоторые из них, наверняка, имеют большие показатели.

Riva Tuner также нас не подвел и вывел всю информацию на мониторинге.

После этого мы решили проверить, насколько хорошо справляется со своей задачей штатный кулер. У GeForce 8800 GT с этим были серьезные проблемы. Система охлаждения имела довольно сомнительный запас эффективности. Этого, конечно, хватало для того, чтобы использовать плату в номинале, но для большего требовалась замена кулера.

Однако у GeForce 8800 GTS с этим все в порядке. После продолжительной нагрузки температура поднялась лишь до 61 °C. Это отличный результат для столь производительного решения. Впрочем, в каждой бочке меда есть своя ложка дегтя. Не обошлось и здесь без этого. К сожалению, система охлаждения жутко шумит. Причем, шум становится довольно неприятным уже при 55 °C, что нас даже удивило. Ведь чип почти не нагрелся. С какой стати турбина начинает интенсивно работать?

Тут нам на помощь пришел Riva Tuner. Данная утилита полезна не только тем, что позволяет разгонять и настраивать работу видеокарты, но и имеет функции управления оборотами кулера, если, конечно, плата сама имеет поддержку этой опции.

Мы решили выставить обороты на 48 % — это абсолютно тихая работа карты, когда вы можете полностью забыть о её шуме.

Однако подобные корректировки привели к увеличению температуры. На этот раз она составила 75 °C. Конечно, температура немного высоковата, но, на наш взгляд, это стоит того, чтобы избавиться от воя турбины.

Впрочем, на этом мы не остановились. Мы решили проверить, как поведет себя видеокарта при установке какой-либо альтернативной системы охлаждения.

Выбор пал на Thermaltake DuOrb — эффективную и стильную систему охлаждения, которая в свое время неплохо справилась с охлаждением GeForce 8800 GTX.

Температура упала на 1 °C относительно штатного кулера, работающего на автоматических оборотах (в нагрузке обороты автоматически увеличивались до 78 %). Что же, конечно, разница в эффективности ничтожна мала. Однако уровень шума также стал существенно меньше. Правда, бесшумным Thermaltake DuOrb тоже не назовешь.

В итоге, новый штатный кулер от NVIDIA оставляет лишь благоприятные впечатления. Он очень эффективен и, кроме того, позволяет выставлять любой уровень оборотов, что подойдет любителям тишины. Тем более, что даже в этом случае он хотя и хуже, но справляется с поставленной задачей.

Наконец, упомянем о разгонном потенциале. Он, кстати, как оказалось, одинаков, что для штатного кулера, что для DuOrb. Ядро удалось разогнать до 805 МГц, шейдерный домен до 1944 МГц, а память до 2200 МГц. Не может не радовать, что топовое решение, которое изначально обладает высокими частотами, имеет еще солидный запас, причем это касается как чипа, так и памяти.

Итак, мы рассмотрели видеокарту GeForce 8800 GTS 512 МБ производства XFX. Мы могли бы на этом моменте плавно перейти к тестовой части, однако мы решили рассказать об еще одном интересном решении, на этот раз из стана ATI, производства PowerColor.

Основная особенность данной видеокарты — память DDR3. Напомню вам, что большинство компаний выпускают Radeon HD 3870 с DDR4. Таким же типом памяти был оснащен и референс-вариант. Однако компания PowerColor достаточно часто избирает нестандартные пути и наделяет свою продукцию отличными от остальных особенностями.

Впрочем, другой тип памяти — не единственное отличие платы PowerColor от сторонних решений. Дело в том, что компания также решила оснастить видеокарту не стандартной турбиной, кстати, довольной эффективной, а еще более производительным продуктом от ZeroTherm — кулером GX810.

PCB упрощено. По большей части это коснулось системы питания. В этой области должно присутствовать четыре керамических конденсатора. Причем на большинстве плат они расположены подряд, вплотную друг к другу. На плате от PowerColor их осталось три штуки — два из них располагаются там, где и должны, и еще один вынесен к верхней части.

Несколько сглаживает впечатление от таких особенностей присутствие алюминиевого радиатора на цепях питания. Во время нагрузки они способны серьезно нагреваться, так что охлаждение будет не лишним.

Чипы памяти закрыты медной пластиной. На первый взгляд, это может порадовать, ведь это элемент, способный снизить температуру при нагреве памяти. Однако в действительно все обстоит не совсем так. Во-первых, пластину на данном экземпляре карты снять не удалось. По всей видимости, она крепко держится на термоклее. Возможно, если приложить усилия, то радиатор можно удалить, но мы усердствовать не стали. Поэтому о том, какая память установлена на карту, мы так и не узнали.

Второе, за что нельзя похвалить PowerColor, — это то, что кулер имеет конструкцию, способную направлять воздух на PCB, тем самым, снижая её температуру. Однако пластина этому обдуву частично препятствует. Нельзя сказать, что она совсем мешает. Но любые радиаторы на памяти были бы гораздо лучше вариантом. Или, по крайне мере, не стоит использовать термоинтерфейс, после которого пластину не возможно снять.

Не обошлось без проблем и самим кулером. Да, конечно, ZeroTherm GX810 — хороший кулер. Его эффективность находится на отличном уровне. Этому во многом способствует полностью медная чаша в качестве радиатора с длинной медной трубкой, пронизывающие все пластины. Но вот проблема в том, что на плате распаян 2-ух пинный коннектор. В результате кулер всегда работает в одном режиме, а именно — максимальном. С самого момента включения компьютера вентилятор кулера работает на предельных оборотах, создавая очень серьезный шум. С этим еще можно было бы смириться, относись это исключительно к 3D, все-таки мы были знакомы с более шумными Radeon X1800 и X1900, но вот когда кулер так шумит в 2D… Это не может не вызывать раздражения.

Радует лишь, что проблема эта решаемая. Ведь вы можете использовать регулятор оборотов. Мы, например, так и сделали. На минимальных оборотах кулер бесшумный, только вот эффективность сразу серьезно падает. Есть и другой вариант — сменить охлаждение. Его мы тоже пробовали. Для этого мы взяли все тот же Thermaltake DuOrb и обнаружили, что установка не возможна.

С одной стороны, монтажные отверстия подходят, только вот крупные конденсаторы на PCB препятствуют крепежу. В результате, осмотр платы мы завершаем на довольно негативной ноте. Перейдем к тому, как ведет себя видеокарта, когда установлена в компьютер.

Частота ядра составляет 775 МГц, что соответствует референсу. А вот частота памяти гораздо ниже традиционной значения — лишь 1800 МГц. Однако тут не стоит особо удивляться. Мы имеем дело с DDR3. Так что это вполне адекватный показатель. Кроме того, имейте ввиду, что DDR4 имеет значительно большие задержки. Таким образом, конечная производительность будет примерно на одном уровне. Разница будет проявляться лишь в приложениях, требовательных к пропускной способности.

Кстати, я обратил бы ваше внимание на то, что плата имеет БИОС 10.065. Это достаточно старая прошивка и в ней, наверняка, присутствует ошибка PLL VCO. В результате, вы не сможете разогнать вашу карту выше 862 МГц. Однако исправить это довольно просто. Для этого достаточно обновить БИОС.

Riva Tuner без проблем вывел всю необходимую информацию о частотах и температуре.

Температуре в нагрузке составила 55 °C, т. е. карта почти не нагрелась. Возникает лишь вопрос: если есть такой запас по эффективности, зачем использовать исключительно максимальные обороты для кулера?

Теперь о разгоне. В общем-то, не секрет, что частотный запас RV670 довольно мал, однако у нашего экземпляра она оказался ужасно мал. Нам удалось поднять частоту лишь на 8 МГц, т. е. до 783 МГц. Память показала более выдающиеся результаты — 2160 МГц. Отсюда можно сделать вывод, что на карте, скорее всего, используется память со временем выборки 1.0 нс.

Исследование производительности видеокарт

Список участников тестирования вы можете увидеть ниже:

  • GeForce 8800 GTS 512 МБ (650/1625/1940);
  • GeForce 8800 GTS 640 МБ (513/1180/1600);
  • Radeon HD 3870 DDR3 512 МБ (775/1800);
  • Radeon HD 3850 512 МБ (670/1650).

Тестовый стенд

Для выяснения уровня производительности видеокарт, рассмотренных выше, нами была собрана тестовая система нижеследующей конфигурации:

  • Процессор — Core 2 Duo E6550 (333?7, L2=4096 КБ) @ (456?7 = 3192 МГц);
  • Система охлаждения — Xigmatek HDT-S1283;
  • Термоинтерфейс — Arctic Cooling MX-2;
  • Оперативная память — Corsair TWIN2в6400С4-2048;
  • Материнская плата — Asus P5B Deluxe (Bios 1206);
  • Блок питания — Silverstone DA850 (850 Вт);
  • Жесткий диск — Serial-ATA Western Digital 500 ГБ, 7200 rpm;
  • Операционная система — Windows XP Service Pack 2;
  • Видеодрайвер — Forceware 169.21 для видеокарт NVIDIA, Catalyst 8.3 для плат AMD;
  • Монитор — Benq FP91GP.

Используемые драйверы

Драйвер ATI Catalyst был сконфигурирован следующим образом:

  • Catalyst A.I.: Standart;
  • MipMap Detail Level: High Quality;
  • Wait for vertical refresh: Always off;
  • Adaptive antialiasing: Off;
  • Temporal antialiasing: Off;

Драйвер ForceWare, в свою очередь, использовался при следующих настройках:

  • Texture Filtering: High quality;
  • Anisotropic sample optimization: Off;
  • Trilinear optimization: Off;
  • Threaded optimization: On;
  • Gamma correct antialiasing: On;
  • Transparency antialiasing: Off;
  • Vertical sync: Force off;
  • Остальные настройки: по умолчанию.

Используемые тестовые пакеты:

  • Doom, Build 1.1 — тестирование в утилите BenchemAll. Для теста на одном из уровней игры нами было записано демо;
  • Prey, Build 1.3 — тестирование через HOC Benchmark, демо HWzone. Boost Graphics выключен . Качество изображения Highest . Двукратный прогон демо;
  • F.E.A.R., Build 1.0.8 — тестирование через встроенный бенчмарк. Soft Shadows выключено ;
  • Need For Speed Carbon, Build 1.4 максимальные настройки качества. Motion Blur отключен . Тестирование проходило посредством Fraps;
  • TimeShift, build 1.2 — детализация форсировалась в двух вариантах: High Detail и Very High Detail. Тестирование проходило посредством Fraps;
  • Unreal Tournament 3, build 1.2 — максимальные настройки качества. Прогон демо на уровне VCTF?Suspense;
  • World In Conflict, build 1.007 — использовалось два варианта настроек: Medium и High. Во втором случае отключались фильтры качества (анизотропная фильтрация и сглаживание). Тестирование проходило с помощью встроенного бенчмарка;
  • Crysis, build 1.2 — тестирование в режимах Medium и High. Тестирование проходило посредством Fraps.

* После названия игры указан build, т. е. версия игры. Мы стараемся добиться максимальной объективности теста, поэтому используем игры только с последними патчами.

Результаты тестирования

Похожие публикации