На що здатна 8600GT в сучасних іграх? Тест

 | 16.38

Багато користувачів, які хочаб іноді слідкують за подіями на ринку відеокарт, пам’ятають осінь 2006 року, коли каліфорнійський виробник відеокарт – Nvidia, явила світові свої творіння, а саме “монстроподібні” відеокарти GeForce 8800 GTX і GeForce 8800 GTS, в основі яких лежав, дійсно, легендарний графічний чіп – G80. Нові відеокарти мали захмарну продуктивність і ,майже, таку ж ціну, тому придбати їх могли лише досить заможні ентузіасти і геймери.

Після піврічного очікування компанія Nvidia представила ряд відеокарт самого нижнього і середнього цінових діапазонів: GeForce 8400, 8500 і 8600. Які б не були “круті” відеокарти топового класу, але основний прибуток іде від продажу саме цих відеокарт. Тому багато користувачів отримали доступ до найсучаніших технологій таких, як новий API DirectX 10, за більш розумну ціну.

В основі 8600GT і 8600GTS був графічний чіп – G84, який у мав у своєму складі 32 уніфікованих шейдерних процесори і 8 блоків растрових операцій(ROP). Крім урізання функціональних блоків GPU, порівняно з топовими рішенннями на G80, відеокарти отримали лише 128 бітну шину обміну даних, що негативно сказувалось на продуктивність у “важких” режимах графіки.

Хітом продажу стала 8600GT, яка мала досить задовільну продуктивність в іграх і досить демократичну ціну. Різниця між версіями GT і GTS полягала в значно вищих тактових частотах і присутністю більш швидкісної відеопам’яті, але в умілих руках перша могла досягти, а то і перевершити ці показники після розгону. Тому 8600GT отримала дуже широке розповсюдження.

Йшов 2008 рік і Nvidia після незначних модифікацій і преходу на більш тонкий 65нм технологічний процес G84 перетворився у – G96 і як результат з’явилися відеокарти GeForce 9500 GT. Продуктивність GeForce 9500 GT і 8600GT була майже однакова, або трохи більшою у першої за рахунок трохи більших тактових частот.

Добре пам’ятаю, як кілька років тому в багатьох супермаркетах продавались ПК в яких у пару до дорогого і продуктивного чотирьох ядерного процесора ставили GeForce 9500 GT і іменували цю систему “геймерською”, хоча, в дійсності, вона такою і не була.

Так як відеокарти 8600GT і GeForce 9500 GT отримали досить широке розповсюдження, то буде цікаво поглянути їх власникам, яких, я впевнений, дуже багато, на що спроможні іх акселератори в сучасних іграх, і чи варто їх уже замінювати.

FORSA GeForce 8600 GT 512MB

Дану відеокарту я отриамв на тестування у свого товариша, в якого вона благополучно працює уже, майже, три роки. Хто не знайомий із вендором – FORSA, то скажу кілька слів, хоча у нас він не дуже і розповсюджений. FORSA Multimedia Limited була заснована у 1998 і займалася в основному поставкою відеокарт для ОЕМ ринку, на даний момент вона уже випускає оперативну пам’ять і твердотілі накопичувачі. Штаб-квартира розташована в Гонконгу, а виробничі потужності в Шеньжені и Донггуані.

Перейдемо безпосередньо до героя сьогоднішнього тестування.

Відеокарту я отримав в оригінальній упаковці, яка виконана з картону у світлих тонах із зображенням войовничого робота. Як завжди, на упаковці вказано фірмові технології, які підтримує відеокарта. Привертає напис FORSA – відчуй різницю, якраз це і побачимо. Так, як відеокарта б/к, то з комплекту поставки був тільки: сама відеокарта в захисній упаковці і диск з драйверами.

Розглянемо відеокарту поближче. Відеокарта виконана на текстоліті зеленого кольору, яка повторює еталонний дизайн від 8500GT, що є більш спрощеним ніж рекомендує Nvidia для своїх 8600GT.

Мало того що PCB спрощена, то замість GDDR3 з частотою 700Мгц(ефективна 1400Мгц), було встановлено 512Мб( класичний обман користувачів, які помилково звертають увагу лише на обєм памяті, а не на її тип, і впевнені, що чим більше тим краще) повільної DDR2 пам’яті з часом відгуку 2нс, набраний восьми чіпами виробництва Samsung, які працюють на частоті 400МГц(ефективна 800МГц).

Через таке відхилення у специфікації ми втрачаємо майжу у двічі пропускну здатність відеопам’яті, що негативно вплине на продуктивність. Хочеться сказати, що великий обєм памяті необхідний для важких режимів графіки, а відеокарти такого класу з самого початку не розраховані на це.

Утиліта GPU –Z підтвердила усі характиристики 8600GT, а саме що перед нами відеокарта на основі 80нм чіпа — G84, який має у своєму складі 32 уніфікованих шейдерних процесори і 8 блоків растрових операцій(ROP). Обмін данних між чіпом і пам’яттю здійснюється по 128 бітній шині. Частотні характеристики чіпа/шейдерного домену/ відеопам’яті складають 540/1188/400Мгц відповідно.

Для підключення до монітору у відеокарти передбачено два виходи — d-Sub (VGA) і DVI. У карти присутній роз’єм TV – вихід, для виведення зображення на телевізор через S-Video, або по RCA, для цього необхідний відповідний перехідник.

Система охолодження представлена невеликим алюмінієвим радіатором, пофарбованим під колір міді, а також вентилятором з 11 лопастями на яому красується напис Forsa – See the dsfference. При роботі кулер видавав неприємний набридлевий шум, судячи з усього, він працює на максимальних обертах і не підтримує їх регуляцію . Ефективність системи охолодження була перевірена шляхом проходшення 3DMark06 на дефолтних налаштуваннях. В результаті графічний чіп прогрівся до 66⁰С.

Я сподівався, що зможу розігнати досить непогано дану відеокарту, але тут мене чекало повне розчарування. Власник уже колись згадував, що відеокарта іноді грішила появою різного роду артефактів у іграх. Спроба підняти частоту відеоядра навіть на 30МГц призвела до того, що в кінці проходження 3DMark06, було помічено ці артефакти( різного роду “сміття” не властиве зображення), а від збільшення частоти пам’яті система взагалі зависала 😥 . Тому було вирішено відмовитись від розгону і протестувати як є.

Тестування

Всі тести проводились у середовищі Windows XP. Замір FPS( кількість кадрів за секунду) здійснювався вбудованим бенчмарком, а при його відсутності використовувалась утиліта Fraps. Ігри запускались при роздільній здатності 1280х1024 з високою деталізацією, зглажування вимикалось, анізотропна фільтрації 16х.

Тестовий стенд

• Процесор: Pentium Dual-Core E5200(3,33ГГц: 333*10 при V=1.36)

• Кулер: Cooler Master Hyper TX3;

• Материнська плата:Gigabyte G33M-S2;

• Пам’ять:2х1GB Apacer і Hynix PC6400 (889МГц при таймінгах 5-5-5-18);

• Жорсткий диск:400GB Samsung HD403LJ 16MB 7200rpm;

• Блок живлення:ATX High Power HP500-A12S V2.2;

• Операційна система:Windows XP SP3 x86;

Тепер пару слів про отримані результати. Відеокарта пройшла тестування у 12 сучасних і дуже популярних іграх. На мою скептичну думку, рядовому невимоглявому геймеру вистачить для гри, щоб середній FPS був 17 і вище, хоча бато хто може і зі мною і непогодитсь. З протестованих ігор такий FPS був зафіксований у 7 ігрових проектів, а в решті для отримання більш комфортних показників доведеться знизити налаштування. В синтетичному тесті 3DMark06 відеокарта набрала 4123 попугаї.

Особисто я очікував більших результатів, далась в знаки мала пропускна здатність памяті та і відсутність можливоті розігнати даний екземпляр.

Висновки

Після, майже, чотирьохлітньої історії існування чіпа G84 і побудованих на його основі відеокарт GeForce 8600GT і GTS, а також їх аналог GeForce 9500GT на G96, мають ще “порох в порохівницях”. І якщо ви власник монітору з розширенням 1280х1024 і ви не заядлий геймер, звикший викручувать графіку на максимум, а іноді непроти пограти в навіть сучасні ігри з середньо-високих налаштуваннях то їх заміна немає сенсу. Тимпаче, якщо у вас відеокарта “озброєна” повноцінним GDDR3 і піддається розгону, то можна значно підняти продуктивність, не витрачаючи додаткових коштів, вище того, що було отримано в тестуванні.

І на останок хочеться дати кілька рекомендацій по вибору відеокарти. До апгрейду необхідно уважно віднестись, щоб з розумом вкласти ваші “кровні”. Слід, в першу чергу, звернути увагу, який інтерфейс підтримує ваша материнська пла чи це PCI-E чи уже давно застарілий, хоча ще зустрічається – AGP. Друге, на що слід звернути увагу — це потужність центрального процесора, бо є такі випадки, що в системі стоїть дійсно продуктивна відеокарта, а FPS як був низький так і є, а це свідчить про те, що процесор не здатний завантажити відеокарту. І третє – це потужність вашого блоку живлення, якщо відеокарта досить продуктина, то обовязково буде необхідно під’єднати додаткове живлення, а не здатність видать необхідну потужність. може призвести до додаткових витрат, які наврядче будуть бажані. А перед вибором конкретного відеоадаптера слід подивитися його тести, а уже після аналізу брати відеокарту, а не опиратися на рекомендації консультанти , які не завжди добросовісні ;).

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *