GeForce vs Radeon: нужны ли геймерам новые игровые видеокарты?

 | 16.23

Мой Компьютер, №09 (513), 14.07.2008

Заранее хочу извиниться перед читателями за то, что свожу в одном тесте такие разные видеокарты. Лучше было бы «сталкивать лбами» GeForce GTX 280 и Radeon 4870, а GeForce GTX 260 и Radeon HD 4850 рассмотреть отдельно. Правда, с таким подходом тоже не все было бы гладко, поскольку Radeon 4870 стоит примерно 350 долларов, а 260-й (не 280-й!) GeForce — на сотню дороже. Правда, ходят слухи, что nVidia собирается заметно снизить цены на свои свежие видеокарты (на GeForce GTX 280 с 649 до 499 долларов и на GeForce GTX 260 — до уровня 299-339 долларов с указанных ранее 400 «с половинкой»). Но пока слухи остаются слухами, новинки от nVidia представляют для большинства поклонников РС-игр этакий аналог раллийного болида класса WRC. Посмотреть на него, конечно, интересно, да и в деле машинка крута — спору нет. Но для поездок на дачу покупают, например, Subaru Forester или вообще «Ниву», которая, может, довезет и не так быстро, но все-таки довезет.

Поэтому, раз уж получилось заполучить именно эти видеокарты, о них и напишем. Все-таки первое знакомство с новым поколением (причем в случае с nVidia поколение действительно новое, а не «рестайлинг», посредством которого из чипа G80 получился практически идентичный ему G92). Ну, а цены сравнивать пока можно только из спортивного интереса, поскольку новые видеокарты только в просвещенной Европе могут стоить столько, сколько указано производителем в виде «рекомендованной» цены. У нас же в первые три-четыре месяца о реальных ценах можно даже не мечтать.

Хотя, с другой стороны, стараниями все тех же двух конкурентов рынок забит настолько, что, например, Radeon HD 4850 уже выглядит вполне достойной альтернативой… GeForce 9600 GT! Вот так-то… Если после нашей последней статьи, посвященной видеокартам, вы еще не успели сбегать в компьютерный салон, то потерпите еще чуть-чуть. По крайней мере, пока не дочитаете этот материал до конца. Я заранееё скажу, что Radeon HD 4850 нельзя назвать однозначно лучшим вариантом по сравнению с GeForce 9800 GT (да и по цене он пока еще чуть выше, но есть подозрение, что это ненадолго), у каждой видеокарты есть свои плюсы и свои минусы. Но, черт возьми, тем, кто собирается делать небольшой апгрейд видеоподсистемы, предстоит очень нелегкий выбор.

Что же касается GeForce GTX 280, то тут все просто: это самая быстрая одночиповая видеокарта на сегодняшний день. Точка. Вернее, запятая, после которой надо упомянуть, что по совместительству она еще и самая дорогая, а затем уже ставить точку :-). И в этом случае тот, кто денег на видеокарты не жалеет, как раз может смело топать за обновкой. Ну, а для пущей убедительности в тесте примет участие «двухголовый» Radeon HD 3870 X2, который, кхм, все равно не дотягивает по цене до GeForce GTX 280. По крайней мере, до тех пор, пока вожделенный обвал цен на новинки nVidia не переместится из разряда слухов в официальные пресс-релизы.

Впрочем, еще посмотрим, кто будет быстрее (и дороже) после выхода Radeon HD 4870 X2, поскольку в том, что появится двухчиповое решение на базе GeForce GTX 280, я о-очень сильно сомневаюсь. Почему — станет ясно чуть позже.

Кризис жанра

Очень хочется сделать небольшое лирическое отступление для тех, кто в последнее время не следил за игровыми новостями (в частности, в нашем журнале «Мой игровой компьютер), но, в целом, находится в курсе происходящего с РС-геймингом.

Уже второй год (то есть, с момента выхода Xbox 360) на каждом углу трубят о том, что РС как игровая платформа умер. Представляю, конечно, как, услышав подобные заявления, надрывают животики представители как nVidia, так и AMD. И причина «непотопляемости» компьютеров очевидна — это самая массовая среди игровых платформ, которая, к тому же, не только игровая, но и вполне себе рабочая. Компьютеры будут всегда и у всех (ну, почти у всех), а раз так, то будет и рынок для разработчиков игр. Тем более, что делать игры для РС во многих аспектах проще, чем для консолей (проблемы только с поддержкой разных конфигураций, в отличие от консолей, но времена DOS прошли, так что все это прекрасно решается). А раз рынок есть, то будут и игры.

Другой вопрос, что игры эти не всегда можно назвать качественными, а пиратство и драконовские цены на топ-железо (если у вас округлились глаза при виде цены GeForce GTX 280, вы поймете, о чем я, мне тоже не светит в ближайшее время купить такую штуковину) отнюдь не способствуют продажам дорогостоящих блокбастеров. Вот различные топ-разработчики и переметнулись на сторону консолей. Но даже в такой ситуации РС-игроков не забывают. Еще бы, мы тоже за игры можем деньги платить (кхм, иногда)…

Но переломный момент уже почти настал. И хотя я не могу гарантировать, что на нас снова обрушится вал РС-эксклюзивов, баланс платформ все равно должен качнуться в сторону персоналок. Это видно уже сейчас, и именно так было в предыдущие годы с предыдущими поколениями консолей.

Смотрите сами. Цикл жизни одного поколения консолей до выхода следующего поколения — от пяти лет и выше. При этом первый год после выпуска обычно проходит на «сухом пайке». Платформа новая, наборы утилит для разработки еще не оптимизированы, движков новых, красивых и дешевых еще не понаписывали — в общем, по-настоящему потенциал любой приставки раскрывается только спустя некоторое время. Сейчас в фазу «расцвета» вошла PlayStation 3, эту консоль раскупают, как горячие пирожки (ну конечно, вышли Devil May Cry 4, новый Gran Tourismo, GTA IV и гранд-финал величайшей игровой саги Metal Gear Solid). У Xbox 360 выход на «крейсерскую скорость» ознаменовался выходом Gears of War… Но вот в чем фокус. MGS 4 и Gears of War — игрушки красивые, спору нет. Но они уже выжимают из своих консолей практически все соки. А геймер — это такой зверек, который, конечно, рассказывает про то, насколько в играх важен сюжет, геймплей и прочее, но все равно наиболее падким остается именно на графические красоты. Особенно тогда, когда их начинают предлагать по вменяемой цене.

Красоты уровня Xbox 360 на РС уже доступны практически по той же цене, что и сам Xbox 360 (видео, процессор и материнская плата). А наш компьютерный next-gen в виде GeForce GTX 280 для с консольного next-gen’а — это даже не завтрашний день. В лучшем случае — послезавтрашний. И цены на видяхи ползут вниз, этот процесс не остановишь.

Был бы, конечно, риск, что никто не покажет этим самым геймерам, на какую графику способен «наш» next-gen. Но есть такая замечательная контора CryTek, которая выпустила игрушку Crysis. А игрушка эта, если помните, продалась не очень хорошо. CryTek грешили на разгул пиратства и пиринговых сетей, я, например, склонен считать, что причина скрывалась в непомерно высоких системных требованиях Crysis. А для игры, главным достоинством которой является именно графика, наличие у народонаселения подходящего «железа» — критичный фактор. Но, так или иначе, несмотря на все заявления о том, что больше CryTek никаких эксклюзивов для РС делать не будет, новый Crysis Warhead все-таки заявлен как РС-only. Причина очевидна: разработка движка такого уровня — удовольствие не из дешевых, а если я прав, то за время, прошедшее с момента выхода первого Crysis, количество мощных видеокарт заметно выросло. И Warhead будет продан гораздо более внушительным тиражом. Думаю, в CryTek это тоже отлично понимают.

Не знаю, за что компания Leadtek так невзлюбила IT-шных фотографов, но снять коробку GTX 280 без бликов невозможно

Собственно, нам, геймерам, Crysis Warhead нужен не меньше, чем разработчикам — прибыль от его продаж. Поскольку, как ни крути, а на данный момент только эта игра может быть паровозом, который тащит прогресс видеоускорителей вперед. И пускай топовые видеокарты нужны не всем, появление новых hi-end железяк автоматически провоцирует падение цен на middle-end. А нам как раз это и нужно :-).

Немного жалоб на судьбу

Если после прочтения предыдущей главки вы более-менее поняли ситуацию с играми, которая сложилась на данный момент, вам будет очень просто понять очередную проблему, которая встала передо мной при начале работы над этой статьей. Расписать о том, какую замечательную железяку сделала nVidia, я могу — не вопрос. Но дальше-то надо опробовать все ее преимущества на практике. И вот тут-то начинаются проблемы. Де-факто благодаря тому, что большая часть блокбастеров игрового рынка нынче делается кроссплатформенной (то есть, с учетом хилой «начинки» Xbox 360), для нормального фреймрейта этим самым блокбастерам вполне достаточно видеокарты уровня GeForce 8800 GTS 512 Мб, а то и вовсе — 9600 GT (я даже не говорю про 9800). Конечно, есть Crysis (пока что не Warhead, его обещают к осени), который до сих пор способен загрузить работой любую видеокарту, включая GeForce GTX 280 (в каких режимах — это другой вопрос). Есть абсолютно нереальная демка Call of Juarez, которая имеет мало общего с одноименной игрой и еще меньше — с другими играми. Реальным же эталоном по требованиям на данный момент можно считать Gears of War, собранный на движке Unreal Tournament 3. Теми же требованиями отличались и Assassin’s Creed, и Rainbow Six: Vegas 2, и Call of Duty 4… Кстати, в Gears of War замечена еще одна характерная особенность, которая проявляется во многих последних играх — привязка графического движка к физическому. А физический движок зачастую просчитывает столкновения и все прочее, что ему положено просчитывать, из расчета на оптимальный фреймрейт. Таким образом, в Gears of War частота кадров выше 64 не поднимается, в Quake Wars и C&C 3 верхняя планка еще ниже — 30 fps. В принципе, логично, объекты все равно не нужно отрисовывать быстрее, чем они двигаются, так что для таких игр гораздо важнее определять нижнюю границу, до которой «проседает» производительность в особо тяжелых сценах. Собственно, на таких условиях в этот тест и был включен Gears of War.

Radeon HD 3870 X2. Уже знакомы

Есть еще загадочная игрушка Lost Planet, которая, как и Crysis, умудряется загрузить любую видеокарту. Но тут, похоже, при портировании «недоработали напильником» по части спецэффектов. Либо же просто перестарались с «разукрашиванием» РС-версии (ведь консольная откровенно страдала из-за малого количества полигонов в кадре). В общем, выкручиваем все параметры на максимум, ставим восьмикратное полноэкранное сглаживание и разрешение 1920х1200.

Кстати, на самом деле на данный момент я вижу только одну причину, по которой имеет смысл тратить деньги на видеокарту дороже 300 долларов — это игра в высоких разрешениях, причем с включением FSAA на полную катушку. Я, например, не постеснялся и поставил (в тех тестах, где это было возможно) восьмикратное сглаживание. GeForce 9600 GT, как оказалось, в Crysis позволяет ставить только 4х сглаживание, так что учтите это, когда будете смотреть итоговую таблицу.

GeForce GTX 280 в бенчмарке… отстаёт от Radeon HD 3870 X2

Надо бы рассказать и еще об одной особенности этого тестирования. В порыве исследовательского интереса я решил прогнать 3Dmark’06 не только в стандартном режиме (1280х1024 без АА и АФ), но и с более высокой нагрузкой (собственно, воспроизвести режимы Crysis, который в данном случае стоит считать основным бенчмарком). Так вот, сравните, пожалуйста, «соотношение сил» между GeForce GTX 280 и Radeon HD 3870 X2 в 3Dmark’06 и игровых тестах. Gears of War, в принципе, можно исключить, его до разрешения 1920х1200, на самом деле, «тянет» практически все, что не слабее (и не дешевле) Radeon HD 3850. А вот в действительно прожорливых играх становится очевидным, насколько бенчмарк трехлетней давности отстал от реальной жизни.

Правда, можно предположить и обратное, что, мол, 3Dmark’06, наоборот, так хорошо оптимизирован под многопроцессорные карточки, а также всякие CrossFire и SLI. Но нам-то какая разница :-)? Эх, пора попробовать 3Dmark Vantage, авось поточнее будет. И подружелюбнее к новинкам, поскольку на существующих драйверах (Catalyst 8.6) с Radeon HD 4850 бенчмарк 3Dmark’06 работать отказался. Не в первый раз такое с продуктами AMD, кстати, но проблемные драйверы — это бич всех Radeon’ов, начиная еще с древних Radeon 256, если кто такие помнит.

GT200 vs RV770

Рассказывать о технологических нововведениях AMD особенно долго не придется. Основным достижением в чипе RV770 стало увеличенное до 40 количество текстурных блоков (посмотрите на 16 блоков в ядре чипа Radeon HD 3870/3850 и почувствуйте разницу). Для Radeon HD 4870 стоило бы упомянуть поддержку памяти GDDR5, но раз уж мои загребущие лапы дотянулись только до Radeon HD 4850, то говорить особо не о чем. Обычный GDDR3 в объеме 512 Мб, ничего особенного. Впрочем, большего за такие деньги грех и желать.

Radeon HD 4850. На вид и не скажешь, что этот скромняшка держит 30 fps в Crysis при 1920х1200 и настройках High

Удивляет также дикое количество унифицированных шейдерных процессоров в кристалле RV770 — аж 800 штук! Но, как обычно, нужно учитывать разницу в архитектурах nVidia и AMD/ATI, так что, несмотря на сумасшедшую теоретическую производительность (один Терафлоп), в реальных приложениях Radeon HD 4850 не сможет обогнать GeForce GTX 280, у которого теоретическая производительность составляет 0,993 Терафлопа. И это можно было бы считать хорошим заделом на будущее, когда видеокарты начнут наконец-то брать на себя часть общих вычислений (начиная с физики), если бы nVidia не сделала это будущее настоящим. Хотя, конечно, для того чтобы это настоящее принесло какую-то пользу игроку, нужно еще обзавестись играми с поддержкой технологии nVidia PhysX. Что эта технология позволяет, вы, надеюсь, уже и так поняли :-).

Кроме того, пока AMD наращивала TMU, которых ее продукции явно не хватало, nVidia практически удвоила количество шейдерных блоков — до 240 (по сравнению с GeForce 9800 GTX). В итоге теоретическая производительность тоже должна была почти удвоиться, однако nVidia пришлось немного поумерить аппетиты и сделать частоты GeForce GTX 280 более низкими, чем у предыдущего флагмана. Причина проста — новый флагман и на таких частотах под нагрузкой «кушает» примерно 200 Вт (кстати, в пару к этой видеокарте рекомендуется блок питания мощностью не менее 550 Вт). По этой же причине заниматься разгоном и (или) сборкой SLI из GeForce 280 я бы не советовал. Тем более, что игр, для которых действительно нужно устраивать такое маньячество, просто нет.

На Leadtek GeForce GTX 280 изображён крутой трансформер. Хотя Годзилла был бы уместнее

Но, как и в случае со многими последними видеокартами nVidia, новый GeForce спасает грамотная и эффективная система охлаждения. Да, громоздкая, да, двухслотовая. Но все равно ведь большая часть материнских плат уже выпускается с таким расчетом, что в них будет устанавливаться «двухэтажная» видеокарта. А вот зачем AMD использовала в Radeon HD 4850 однослотовый кулер — для меня загадка. Нетрудно догадаться, что новый чип с увеличенным числом TMU и совсем уж неслабо накрученным количеством шейдерных блоков даже с учетом более низких частот, чем у Radeon HD 3870, будет греться ничуть не меньше. Собственно, так оно и вышло. Система охлаждения нового Radeon HD 4850 вполне еще справляется со штатными режимами работы, но заниматься разгоном с референсным кулером я бы не стал. Причем дело даже не в нагреве самого видеоядра (оно, в принципе, и до 100 градусов может прогреться, сохраняя работоспособность, хотя это уже и слишком), а в том, что весь горячий воздух из этой «печки» выдувается внутрь корпуса ПК. Конечно, процессор и блок HDD обычно находятся с другой стороны, но задуматься о решении проблемы с вентиляцией внутри корпуса будущим владельцам Radeon HD 4850 нужно заранее. С двухслотовой СО таких проблем могло бы и не быть.

Кстати, в этом свете перспектива сборки CrossFireX из четырех видеокарт выглядит совсем уж неразумной. Ну, разве что вы решите одновременно играть в Crysis и готовить курицу-гриль. Системник особо модифицировать не придется, достаточно будет просто прикрутить вертел.

Формальности

Вот, в общем-то, только они и остались. Перечислить конфигурацию тестового стенда и приступать к выводу — а результаты смотрите в таблице. Предыдущие выводы, сделанные в прошлой статье о видеокартах, остаются в силе. Если вас устраивает разрешение 1280х1024, то апгрейдить видеокарту можно прямо сейчас, выбор велик, как никогда. И благодаря Radeon HD 4850 он стал только шире.

Отличительная черта – с обратной стороны платы GTX 280 прикручена алюминиевая пластина, подрабатывающая в качестве радиатора для чипов памяти

Наш образец GeForce GTX 280 продается под маркой Leadtek, хотя, по сути, является типичным референсным изделием, которое отличается только наклейкой на корпусе кулера. Комплектация ничем особым не порадовала, но и все необходимое на месте. В частности, два переходника — на шестипиновый и восьмипиновый PCI-E коннекторы питания. В отличие от Radeon HD 2900 XT, новый GeForce уже нельзя «запитать» от двух шестипиновых коннекторов. Так что если ваш блок питания не имеет мощность 800 Вт и выше, то, скорее всего, без переходников GeForce GTX 280 вы не запустите. В коробке (кстати, коробка обклеена переливающейся пленкой непонятного назначения… но красиво) обнаружилась еще и игра Neverwinter Nights 2, видимо, положенная туда от безысходности. Игра, безусловно, отличная, но в том-то и дело, что человек, покупающий GeForce GTX 280, должен отдавать себе отчет в том, что тратит деньги исключительно ради красот одной единственной игры — Crysis.

Система охлаждения GeForce GTX 280 практически та же, что и у GeForce 8800 и 9800 референсного дизайна

Radeon HD 4850 и Radeon HD 3870 X2 у нас прямо с завода AMD, так что никакая другая фирма еще не успела прицепить на них свою наклейку. Собственно, поэтому мы и благодарим саму AMD за любезно предоставленное добро.

GeForce 9600 GT произведен компанией Albatron и тоже не отличается от референсного. В комплекте… Ну, все, что положено (переходники, драйвер, мануал). Главное, что сама коробка красивая, черная.

GeForce 9600 GT от Albatron отличается от референса только кулером и ребром жёсткости. Не то чтобы это было необходимо, но выглядит круто

Кроме того, в тестировании принимали участие:

  • материнская плата Gigabyte DQ6 (чипсет Intel X48);
  • процессор Core 2 Extreme QX9770, 3.2 ГГц (4 ядра);
  • две планки DDR2-1066 по 1 Гб;
  • винчестер Hitachi Deskstar 7200 об/мин, 160 Гб;
  • блок питания Tagan 650 Вт;
  • монитор Samsung SyncMaster 245 FT.

Тестовый стенд был открытым, стоял прямо под кондиционером, настроенным на поддержание температуры 24 градуса. Так что прошу еще раз и богатых поклонников nVidia, и экономных любителей видеокарт AMD обратить внимание на охлаждение корпуса. GeForce GTX 280, хоть и имеет хорошую СО, но его недаром называют «ПЕЧ» (наберите GTX при включенной русской раскладке :-). А вот владельцев Radeon HD 4850 такой кулер разом избавил бы от многих проблем (проблемы с драйверами, как показывает практика, решаются в течение пары месяцев, хотя и сейчас, если не считать 3Dmark’06, новый Radeon работает стабильно и уверенно). Будем ждать «творчества» различных вендоров? Само собой, Asus так точно прицепит свой кулер :-).

Таблица 1

Таблица 2

Жаль лишь, что нет реальной возможности испробовать технологию nVidia PhysX в деле. Возможности она открывает действительно интересные. Теоретически. А практически сейчас все в руках разработчиков. Будем ждать новостей!

Bateau

Robo User
Web-droid editor

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *