Процессорные итоги 2008 года

 | 07.46

Мой Компьютер, №03 (434), 08.01.2007

Процессоры и чипсеты

Комания Intel уверенно вошла в 2008-й год, имея в своём портфолио не только «раскачанные» до 3 ГГц четырёхъядерные процессоры Core 2 Extreme QX6850, но и их преемников, первый из которых (Core 2 Extreme QX9650, тоже на 3 ГГц, но с более ёмким кэшем второго уровня) появился в продаже ещё в ноябре 2007-го года. Как обычно, топовые модели Intel, получающие в названии слово «Extreme», стоили огромных денег (до 1000 долларов в оптовых партиях), но их появление всегда означает лишь одно: технология отработана, фабрики переоборудованы, перенастроены и перезапущены, в ближайшие месяцы нужно ждать появления камней среднего ценового диапазона из той же линейки. А памятуя о том, что любой из «Extreme» процессоров Intel не более чем через полгода получал mid-end аналог, уступающий экстремальной версии только отсутствием разблокированного множителя, все поклонники процессоров Core с оптимизмом ждали наступления процессорного коммунизма.

Core 2 Quad в различных инкарнациях — герой 2008-го года. В 2009-м на Олимпе производительности его сменяет семейство Core i7

Собственно, до самой осени примерно так и было – постепенно обновлялись все линейки, классы и группы процессоров для различных платформ, а производители материнских плат и чипсетов тем временем продолжали разбегаться в стороны от гнёта самой Intel, фактически оккупировавшей рынок чипсетов для десктопов и ноутбуков традиционного формата. А куда разбегаться? Правильно, в новые, ещё толком не освоенные рыночные ниши. Как правило, миниатюрные… Впрочем, о платформах поговорим чуть позже.

Phenom X3 и Phenom X4 не вывели AMD в лидеры, но заставили Intel потесниться в среднем сегменте рынка

А что же AMD? В начале 2008-го года никто не мог сказать ничего определённого. Объединённой компании приходилось нелегко практически по всем фронтам, конкуренты теснили её ещё и на рынке видеочипов, несмотря на то, что ещё при покупке канадской компании ATI разработка нового сверхпроизводительного чипа R600 у последней была якобы практически завершена. Тем не менее, все мы помним, сколько времени пришлось ждать до тех пор, пока R600 в виде Radeon HD 2900 XT всё-таки появился на рынке. Помним мы и недостатки этой видеокарты, более-менее исправленные в серии Radeon HD 3000, которая также была хорошей альтернативой продукции nVidia, но не более того. О серьёзной конкуренции в топовом сегменте в начале 2008 года речь могла идти только с оговорками о режимах CrossFireX или многочиповых видеокартах.

В общем, чтобы не уходить далеко в сторону, просто подытожим, что в 2008-й год AMD входила с серьёзными проблемами по всем фронтам и ресурсов у компании явно не хватало на то, чтобы решить все проблемы параллельно и в кратчашие сроки. Тем не менее, долгожданный прорыв с Radeon HD 4000 состоялся в лучшем виде, а второе поколение Phenom, созданное 45-нм техпроцессе при помощи инженеров компании IBM, уже показало свой потенциал на закрытых презентациях. Мы с нетерпением ждём февраля, когда в нашем тестлабе появятся не инженерные образцы новых камней от AMD, а серийные модели, доступные «простым смертным». Вряд ли Phenom II сбросит с трона свежевыпеченного короля по имени Core i7, однако никто не мешает подпилить пару ножек, чтобы потом, когда предоставится удобный случай, всё же сделать своё чёрное дело.

План AMD, показанный два года назад. Сейчас мы находимся между вторым и третьим этапами

В отношении чипсетов и материнских плат, основанных на этих чипсетах, новостей тоже хватало, и не все они были жёстко привязаны к выходам новых поколений процессоров. Этот рынок развивался во все стороны, причём в связи с появлением нового класса компьютеров (и не одного!) пришлось вспомнить о, казалось бы, забытых именах VIA и S3. Хотя удивляться снова-таки нечему – после вытеснения с рынка «крупных» ПК их вотчиной стали мобильные и сверхкомпактные решения, которые стали лавинообразно заполнять прилавки именно в 2008-м году.

От глобального к локальному

Что-то мысль постоянно убегает от последовательного анализа событий 2008-го года к революциям, состоявшимся в его конце. Удивляться, конечно, тут нечему, память про недавние события ещё свежа, а то, что было год назад кажется невероятно далёким – IT-шная жизнь вообще довольно динамичная штука. И тем не менее, проследить основные события в хронологической последовательности всё-таки надо.

Начало 2008 года на процессорном рынке стало важным переломным моментом в судьбе четырёхъядерных процессоров. Конечно, Core 2 Extreme QX6700 выпускался ещё с ноября 2006-го, а его «доступный» собрат Core 2 Quad Q6600 появился в январе 2007-го. Но всерьёз говорить о победоносном шествии четырёхъядерников было слишком рано. В конце концов, стартовая цена в 800 долларов на Q6600 не очень способствовала его популярности.

Изменить ситуацию мог только достойное конкурентное предложение по более низкой цене, которым и стали выпущенные в конце 2007 года Phenom’ы. На тот момент технология изготовления процессоров AMD не позволяла вести «войну гигагерцев», но ценовую – это всегда пожалуйста. В этом деле AMD всегда проявляла себя хорошо, за что ей должны сказать огромное спасибо даже самые ярые поклонники Intel. Если бы не выход Phenom’ов в конце 2007-го, то, скорее всего, за весь 2008-й год цены на «квады» не упали бы ниже 300-400 долларов. А так – ещё в январе Phenom Х4 9500 продавался по 200 долларов и дальше, естественно, только дешевел. Остальные четырёхъядерники автоматически один за другим тоже начали «съезжать» ниже этой психологической границы.

Сколько стоит? Меньше 200 долларов? Четыре ядра? Чертовски заманчиво.

Теперь, де-факто, четырёхъядерники стали мейнстримовым продуктом, который по цене получается намного ниже двух двуядерников аналогичной частоты. На данный момент воспользоваться таким соотношением смогут далеко не все – слишком много софта (а в первую очередь – игр) остаётся максимум «двуядерными», но цена уже позволяет брать четыре ядра «про запас». А уж о тех, кто занимается обработкой 3D и реалтаймовых медиапотоков, и говорить нечего. Для них 4 ядра – чистый профит.

Кстати, бюджетный профит для тех же пользователей, работающих с софтом, оптимизированным под многопоточность, летом появился ещё один повод для радости – процессоры Phenom X3. Поодиночке ядра новой архитектуры AMD проигрывали ядрам от Intel, однако ценовая политика «зелёных» свела 3 ядра и 2 ядра практически «лоб в лоб». И при таком раскладе результаты бенчмарков зависели исключительно от их оптимизации. Результат? Он очевиден – все, кто нуждался в хорошей мощности для тяжёлых программ с минимальными затратами финансов, купили Х3, остальные порадовались ещё большему снижению цен на двуядерники. Всем хорошо, все довольны. И на этом из стана AMD до самой осени особых новостей не поступало – шло планомерное наращивание частот и расширение модельного ряда, всё как обычно.

Да, я совсем забыл упомянуть о нашумевшей в начале года «проблеме TLB», которая могла вызвать критическую ошибку на системах с первыми моделями Phenom. Новости тогда читались, как сводки с фронтов, обновления BIOS, призванные программно обойти эту ошибку AMD, снижали общую производительность на 10-15%… Безусловно, вся эта история (вернее, её раздутость в масс-медиа) подпортила начальные продажи Phenom’ов, однако по личному опыту использования процессора с ошибкой TLB в нашей лаборатории (в течении двух недель) могу сказать только то, что никаких проявлений этой недоработки замечено не было. Ещё тогда мы писали о том, что при выпуске новой микроархитектуры подобных ошибок всегда хватает. В том же первом поколении Intel Core ошибок было, как на собаке блох, и шум в масс-медиа был. Только чуть потише. А быстрый выход Core 2 так и вовсе прекратил все пересуды.

AMD выпускать второе поколение Phenom’ов сразу после первого, конечно, не могла, но решение о добавлении «50» в индексы всех исправленных процессоров (выпущенных на новом степпинге) позволило избежать путаницы и успокоить большинство сомневающихся. В итоге, если вы сейчас надумаете покупать Phenom X4, то индекс типа 9850 или 9650 (главное, чтобы заканчивался на «50») полностью гарантирует вам отсутствие критической ошибки в его архитектуре. В то же время если вы вдруг наткнётесь на один из Phenom’ов с индексами, кратными 100 (например, Phenom X4 9500), опасаться стоит лишь в том случае, если процессор планируется использовать в важном сервере. Во всех остальных случаях вероятность зависаний и вылетов из-за глюков операционной системы или самого приложения всё равно будет на порядок выше.

Чем же занималась в начале года компания Intel? Да всё тем же – выпускала дорогущие, но невероятно мощные Extreme-процессоры и обновляла модельный ряд, заменяя старые 65-нм процессоры 45-нанометровыми.

В настольком сегменте Core 2 E6000, Е4000 и Е2000 сменились моделями из серий Е8000, Е7000 и Е5000. Чуток подросли частоты, снизилось энергопотребление, L2-кэш стал больше (6 Мб на Е8000 против 4 Мб на Е6000) и так далее. По идее, 45-нм техпроцесс позволяет получать более дешёвые процессоры, и заявленные Intel цены действительно были невысокими. Однако небольшое искусственное поддержание дефицита 45-нм процессоров сделало своё дело и в рознице новые Core 2 стоили заметно дороже. Впрочем, логика в этом есть и она очевидна: нужно было распродать оставшиеся 65-нанометровые процессоры. По этой причине, кстати, я очень редко советую покупать продукцию лидеров рынка сразу после её выхода. Отсутствие достойного ответа от конкурентов расслабляет не только самого производителя, но и розничных торговцев. Да, кушать хочется всем, только почему мы с вами должны за это платить? Пусть нетерпеливые платят, а мы можем месяцок-другой подождать.

Совместимость со старым заслуженным сокетом LGA775 позволяла без особых проблем произвести апгрейд всем тем, кто заранее позаботился о материнской плате с быстрым FSB. Но в целом тот факт, что мейнстримовые Core 2 Duo E8000 стали требовать частоты FSB 1333 МГц потребовал выпуска новых чипсетов – 40-й серии. 50-я появится только в конце 2008 года, и будет предназначена для работы с новым поколением процессоров Core i7.

У AMD таких проблем не наблюдается. Собственно, любой из чипсетов, поддерживающих Socket AM2+ подходит для любого из процессоров Phenom и, скорее всего, не будет испытывать проблем с Phenom II. Лишь бы схемы питания на материнской плате поддерживали необходимые режимы.

Но у AMD до сих пор остаётся серьёзная прореха в другом направлении – ноутбучном. Пока Intel в рамках продвижения платформы Centrino 2 планомерно обновляла процессоры Core 2 Duo T, заменяя 7000-е камни на 9000-е, а также выводила на рынок первые мобильные четырёхъядерники Core 2 QX 9300 и Core 2 Q9100, AMD оставалась в тени. Если учесть задержку между разработкой настольных и мобильных решений у всех без исключения производителей, кардинального изменения в расстановке сил между ноутбучными процессорами придётся ждать нескоро. На стороне AMD пока остаётся только более сбалансированная платформа – с точки зрения скорости обработки 3D… то есть, игр. Intel в последних графических чипсетах (GMA X4000) хорошо подтянула работу с HD-видео, но с играми эти чипы справляются не намного лучше, чем предыдущие, 3000-е. А те, в свою очередь, от 950-го тоже недалеко ушли. Очевидно, что Intel ориентируется прежде всего на серьёзных людей, которые для развлечения скорее посмотрят фильм, чем угробят 5-10 часов на свежий шутер. С другой стороны казуально-направленные игры (The Sims 2, Spore, World of Warcraft и многие другие) нормально идут на графике Intel и многих это устраивает. Но не всех, конечно, и в этом AMD видит свой шанс. Да, мобильные процессоры AMD слабее, но графика – быстрее на голову (а то и на две). И это только встроенная, о дискретных ноутбучных видеочипах мы ещё поговорим отдельно.

А сейчас перейдём к тому, что взбудоражило не только компьютерный, но и смежные рынки.

Мирный Atom – в каждый дом

Разговоры о загадочном проекте Intel для ультракомпактных ПК ходили давно, в 2007-м году на презентациях регулярно звучала информация о том, как продвигается разработка, чего удалось достичь и стоит ли ожидать выход нового процессора в запланированный срок. Но интерес к UMPC был откровенно слабым, и ничего удивительного в этом нет. Относительно дорогие, не шибко функциональные устройства, иногда имеющие QWERTY-клавиатуры, но не настолько удачные, чтобы можно было набирать привычным способом. А значит, снова «двухпальцевый» набор, который, в общем-то, и на смартфонах нормально осуществляется (если у вас, конечно, не такие толстые пальцы, как у меня).

В 2008 году бурный рост рынка нетбуков заметно замедлил продажи традиционных ноутбуков

Вдобавок ранние UMPC имели преступно малый ресурс автономной работы – около двух часов. Это, сами понимаете, курам на смех. Потом этот срок заметно увеличили при помощи различных ухищрений (каждый производитель по-своему), однако сама концепция UMPC в формате «экран с выдвижной клавиатурой», не получив должного стартового разгона, забуксовала и осела в своей узкой нише «для тех, кому не хватает размеров экрана смартфона или КПК». Поэтому новый процессор Atom, нацеленный на эту специфическую нишу, даже несмотря на потрясающие показатели энергоэффективности был мало кому интересен. Как же мы все ошибались!

Под красивым кодовым именем Silverthorne скрывался маленький (всего 25 кв. мм против 143 кв. мм у Core 2 Duo) процессор, способный выполнять всего по две операции за такт. Для сравнения напомню, что такой же эффективностью отличались первые поколения Pentium, а огромный отрыв по производительности микроархитектуры Core от предшествовавшего ей Net-Burst (Pentium 4, Pentium D) не в последнюю очередь достигался за счёт перехода на выполнение 4-х операций за такт вместо трёх. Таким образом Atom с частотой 1.6 ГГц уступает даже Pentium 4 равной частоты.

Но положа руку на сердце, скажите, а чем вы таким занимаетесь на компьютере, с чем не справился бы, допустим, Pentium III с частотой 1.2 ГГц? Офисный пакет (без особо тяжёлых модулей проверки орфографии), медиаплеер (правда, не для Full HD видео), графические пакеты (только чтобы файлы не слишком «тяжёлые» были)… Вспомните, лет шесть назад мы всё это делали на своих компьютерах и в ус не дули. Современная машина может сделать всё в два-три раза быстрее, но тут стоит снова вспомнить о размерах кристалла Atom. Со стандартной пластины диаметром 300 мм (техпроцесс 45 нм) получается около 2500 процессоров! Это позволило начать продавать 230-е Atom’ы по 29 долларов.

Вид микросхемы Intel Atom мало чем напоминает Core 2 Duo

AMD на это может ответить процессорами Sempron LE, которые стоят по 30 долларов и заметно выигрывают у Atom’ов по производительности (в полтора-два раза). Но сравнение энергопотребления (45 Вт против 2-4 Вт) не оставляет Sempron’ам никаких шансов в мобильном сегменте. Поэтому, кстати, я не вижу особого смысла в неттопах (недорогих настольных компьютерах для веб-серфинга) и домашних медиасерверах на базе Atom. Большую часть времени их нагрузка на процессор минимальна, и в таком режиме Sempron LE уступает Atom’у всего 3 Вт. Другое дело нетбуки, перед которыми не стоит задача «оставаться включенным 24 часа в сутки». Для них важнее продержаться на одном заряде батареи как можно дольше, выполняя самые разнообразные задачи, зачастую нагружающие систему почти по максимуму. Atom для этого подходит практически идеально.

Не будем отрицать и того, что представители Intel сразу заявляли, что видят в Atom симметричный ответ на AMD Geode, использованный в первом поколении OLPC – пресловутого «ноутбука за 100 баксов для бедных детей из третьего мира». Но даже в момент начала поставок OEM-партнёрам (в июне 2008 года) мало кто мог предположить, что из этой затеи получится в итоге. Напомню, что первый Asus Eee получился слишком дорогим и неудобным (прежде всего из-за миниатюрного 7-дюймового экрана), а AMD к тому времени «завязала» с OLPC и отказалась от производства и развития процессоров Geode. Не мне судить, я уже называл выше проблемы, стоявшие перед AMD в начале 2008 года, но теперь «зелёным» придётся навёрстывать упущенное ещё и на рынке нетбуков. А это теперь очень «вкусный» кусок пирога: если в 2007-м году в мире было продано всего 1 млн нетбуков, то к концу 2008-го года это число дошло до 14 млн. И продолжает расти.

В условиях мирового кризиса преимущества нетбуков внезапно стали ещё более весомыми, дешевизна и экономичность при достаточной производительности – многие из тех, кто собирался купить просто бюджетный ноутбук, пересмотрят свои намерения в пользу ещё более дешёвых вариантов.

Нельзя не упомянуть ещё об одном «половинчатом» решении от AMD – процессоре Athlon 64 2000+. Из названия чётко видно, что это, по сути, вариация на тему настольной серии Athlon 64, просто с заниженной частотой (в данном случае – до 1 ГГц). Полноценная настольная архитектура и такой же полноценный чипсет AMD 780G позволяют Athlon 64 2000+ уверенно конкурировать с Atom по производительности. Даже тепловой пакет процессора в 8 Вт выглядит вполне сносно, а более энергоэффективный чипсет вообще делает систему с Athlon 64 2000+ более экономичной, чем компьютер на базе Intel Atom. Но старый 65-нм техпроцесс и большое количество транзисторов приводят к тому, что ультраэкономичный процессор от AMD стоит примерно 90 долларов, а это даже втрое больше, чем экономичные Sempron’ы. Если бы не цена, Athlon 64 2000+ был бы лучшим решением для неттопа, но производить процессоры себе в убыток AMD, конечно, не станет.

С другой стороны десктопные размеры (и десктопный же сокет АМ2) не гарантируют, что этот процессор удастся «воткнуть» в миниатюрный корпус любого нетбука. Жаль, но ничего с этим поделать нельзя. Одно радует – после выхода на рынок Phenom II у AMD будут все возможности для более веского ответа на Intel Atom.

И чтобы закрыть тему нетбуков вспомним о третьем производителе, который уже давно «окопался» на рынке ультрамобильных ПК и просто компактных систем – VIA. Именно VIA в своё время представила первые платы форм-факторов Micro-ATX, Mini-ATX и Nano-ATX, а процессоры VIA C7 и С3 долгое время не имели себе равных в том, что касается экономичности.

С выходом Intel Atom компания VIA неожиданно отказалась от «гонки вооружений» по части экономичности и выпустила процессор Nano, получивший по сравнению с её предыдущими решениями больший объём кэша (1 Мб против 512 Кб) и более высокую частоту (до 1.8 ГГц). В итоге тепловой пакет добрался до значения в 25 Вт, и за счёт чипсета это никак не нивелировать. Система с Nano под нагрузкой потребляет в полтора, а то и в два раза больше, чем система с Atom.

Но Nano и по производительности оказывается выше, даже без учёта уникальных встроенных генератора случайных чисел и шифровального блока (не факт, что ваш софт будет их поддерживать). Положение склоняется в сторону Atom только в одном случае – когда программа поддерживает многопоточность. Всё-таки решение добавить поддержку Hyper Threading со стороны Intel было правильным.

Что интересно, в криптографических тестах Nano вообще не имеет себе равных, обгоняя даже четырёхъядерные Core 2 (www.ixbt.com/news/all/index.shtml?11/17/22). Но это не более, чем очередная демонстрация преимущества аппаратных реализаций над софтверными. Для CPU компьютера важно быть универсальным, уметь считать всё, что угодно. А на все задачи специальных блоков не напасёшься. В истории компьютерной техники в своё время от центрального процессора отделили только одну задачу – обработку трёхмерной графики в реальном времени (хотя и сейчас, если понадобится, любой Core 2 или Phenom запросто отрисует графику трёхмерных игр эпохи «до DirectX, OpenGL и даже glide»). Сейчас активно пытаются «открутить» ещё и физику, но судя по скромным успехам компании Ageia (той самой, которую в итоге с потрохами скупила nVidia), сей процесс ещё далёк от завершения, и не факт, что дискретные ускорители физики (даже в виде отдельных видеокарт в SLI или CrossFire связке) станут популярными.

Так что, криптографический модуль – это замечательно, но ни офис, ни Photoshop, ни WinRAR, ни медиакодеки от его наличия быстрее работать не станут.

Впрочем VIA Nano всё равно может уверенно конкурировать с Intel Atom, а вот компании AMD ещё предстоит придумать что-то новое. Несмотря на то, что упоминавшийся в некоторых новостях процессор с кодовым именем Bobcat (который должен стать прямым конкурентом Atom) по словам представителей AMD всё ещё разрабатывается, скорее всего, его возможности будут реализовано уже в рамках Fusion (универсального чипа, выполняющего функции CPU, GPU и южного моста чипсета одновременно. Причина такого подозрения очевидна – как бы бурно не развивался рынок нетбуков (и, в довесок, неттопов), по массе ему ещё далековато до традиционных десктоп/лэптоп секторов. AMD вряд ли станет очертя голову ломиться на неосвоенные просторы, набивая шишки и тратя огромные деньги на пиар и борьбу с «детскими болезнями» самой концепции дешёвых и энергоэффективных компьютеров небольшой мощности (первой жертвой, кстати, оказалась компания Asus, благодаря которой мы знаем, но 7-дюймовый экран это всё-таки слишком мало для нетбука). Как и в случае с DDR3, AMD может спокойно подождать, понаблюдать… А там уже и сама Intel перейдёт к одно или двухчиповым решениям (www.overclockers.com.ua/news/hardware/2009-01-09/103123), которые в мобильных устройствах более чем оправданны. Так что я ставлю на Fusion.

Каплуны под артишоками с имбирем

Минувший год запомнился ещё несколькими экзотическими «железными» новинками, которые так и остались экзотикой, не предназначенной для массового рынка. Однако это не делает их менее интересными, поскольку решения, использованные при создании подобных устройств, часто возвращаются в виде архитектурных элементов в серийной продукции.

Например, представленная в начале года платформа Intel Skulltrail, хоть и была заявлена как «решение для энтузиастов», на самом деле скорее демонстрировала потенциал Intel в серверном сегменте. Конечно, наличие 4-х разъёмов PCI Express x16 позволило установить практически любую из возможных конфигураций видеоакселераторов (CrossFireX с четырьмя видеокартами Radeon, 3-way SLI с тремя одночиповыми GeForce или вариант, использованный в системе, которую Intel привозила для демонстрации в Киеве – с двумя двухчиповыми GeForce 9800 GX2). Но в то же время наличие двух разъёмов LGA775, поддерживающих любые процессоры Core 2 (включая 4-ядерные), выглядит для игр избыточным даже сейчас, год спустя. Так что, демонстрация совместной работы двух Core 2 Extreme QX9650, разогнанных до 4 ГГц скорее должна была впечатлить корпоративных клиентов, сомневающихся в возможностях шины FSB по наращиванию процессорной мощности системы, а также профессионалов, занимающихся обработкой видео, звука и 3D.

Впрочем, чего греха таить, энтузиасты тоже впечатлились, только не так уж и много в мире энтузиастов, готовых выложить за одну лишь материнскую плату (Intel D5400XS) 600 долларов. При том, что ставить на ней рекорды по разгону не так удобно, как на однопроцессорных системах.

Тоже не будем забывать и о том, что формально Skulltrail был ответом на платформу AMD Quad FX, которая вообще-то в своё время (начало 2007 года) была должна заполнить пробелы в топовом сегменте одновременно по двум направлениям. У AMD тогда не было ни четырёхъядерников (в Quad FX устанавливали по два двуядерных Athlon FX), ни топовых видеокарт (их должны были заменить CrossFire-связки до четырёх видеокарт). Но, что характерно, такая монструозная конструкция получалась относительно недорогой – в базовой конфигурации примерно 3000 долларов. Это при том, что уже несколько лет подряд топовые процессоры компании Intel стоят 1000 долларов (ну хорошо, если совсем точно, то 999), да и самые мощные карточки от nVidia до недавнего времени продавались не намного дешевле.

В общем, что Quad FX, что Skulltrail – решения интересные, но на данный момент слишком уж специфичные, чтобы заинтересовать заметное количество народа. Наши повседневные задачи можно решать на гораздо более простых системах, предлагающих на порядок более выгодное соотношение «цена/попугаи».

Прекрасное далёко

Ну а теперь пора вернуться к более-менее привычному сегменту десктопов, ноутбуков и серверов. Кстати, с учётом ориентации нашего издания на SOHO (домашние пользователи и малые офисы) ничего странного в упоминании серверов нет. Например, во время отдыха между играми в Supreme Commander: Forged Alliance в местном чате нередко проскакивают сообщения о том, что тот или иной игрок использует систему на базе Intel Xeon или AMD Opteron. С точки зрения оправданности затрат эти игроки проигрывают, серверные решения всегда стоили и будут стоить дороже аналогичных десктопных (и причина, естественно, не в том, что большие компании, покупающие сервера, могут заплатить больше). Но, в то же время, они появляются на рынке на месяц-другой раньше сходных по характеристикам потребительских моделей, а значит экстремальному геймеру или энтузиасту всё же есть смысл тратить лишние деньги, чтобы играть с самыми высокими настройками или просто «быть впереди планеты всей» со своими бенчмарками.

Core i7 — теперь у Intel тоже есть настоящие четырехъядерники

Robo User
Web-droid editor

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *