1. Главная страница » Компьютеры » Nvidia geforce gtx 690 4gb

Nvidia geforce gtx 690 4gb

Автор: | 16.12.2019

Видеокарта ASUS GTX690-4GD5 является самым дорогим графическим ускорителем в продуктовой линейке компании, и по своей сути представляет собой ультимативное игровое решение, которое основано на двух графических чипах NVIDIA GK104 аналогичных примененным в NVIDIA GeForce GTX 680. Единственным отличием является пониженная частота работы GPU. С более подробными характеристиками представленного в мае 2012 года решения вы можете ознакомиться в нашем обзоре видеокарты ZOTAC GeForce GTX 690 4 ГБ GDDR5.

Предлагаем перейти к непосредственному знакомству с ASUS GTX690-4GD5:

ASUS GeForce GTX 690

2 х NVIDIA GK104 (Kepler)

Количество универсальных шейдерных процессоров

DirectX 11 (Shader Model 5.0), OpenGL 4.2

Поддержка фирменных технологий

NVIDIA GPU Boost, NVIDIA TXAA technology, NVIDIA FXAA technology, NVIDIA Adaptive Vertical Sync, NVIDIA Surround technology, NVIDIA PhysX technology, NVIDIA 3D Vision, NVIDIA SLI, NVIDIA CUDA, PCI Express 3.0

Частота графического ядра, МГц

915 (1019 МГц с учетом использования технологии GPU Boost)

Частота шейдерного блока, МГц

Частота памяти (эффективная), МГц

Объём памяти, МБ

4096 (2048 на каждый GPU)

Ширина шины памяти, бит

PCI Express 3.0 x16

Цифровое — до 2560×1600

Аналоговое — до 2048×1536

Интерфейсы вывода изображения

1 x mini DisplayPort

Поддержка HDCP и декодирования HD-видео

Минимальные требования к блоку питания, Вт

Свежие драйверы можно скачать с сайта производителя GPU.

Как видно из характеристик, перед нами практически две полноценных одиночных видеокарты на основе GeForce GTX 680 (GK104), объединенные в одну. Как мы уже упоминали выше, единственное изменение это пониженная частота графических ядер, в сравнении с «эталонным» GeForce GTX 680, с 1006 до 915 МГц (на 3,9%), а с учётом использования технологии GPU Boost она может достигать 1019 МГц. Исходя из данных таблицы, практически все характеристики рассматриваемого решения совпадают с рекомендованными компанией NVIDIA спецификациями для графического адаптера GeForce GTX 690 «референсного» дизайна, а, следовательно, и уровень производительности ASUS GeForce GTX 690 должен быть идентичным в сравнении с эталоном.

Упаковка и комплектация

Графический ускоритель поставляется в достаточно крупной картонной коробке черного цвета с качественной полиграфией. На лицевой стороне упаковки, помимо названия самой платы, упоминания об объеме и типе применяемой видеопамяти, нанесена отметка о наличии фирменной утилиты для разгона GPU Tweak в комплекте.

На обратной стороне упаковки производитель разместил основные спецификации видеокарты на 12 языках, включая русский, краткую схему подключения дисплеев с различными интерфейсами, а также рекламное описание ключевых особенностей видеокарты.

Список системных требований к компьютеру, в который планируется установка ASUS GeForce GTX 690, расположен на одной из боковых сторон упаковки. Исходя из этих рекомендаций, блок питания в такой системе должен обладать мощностью не менее 650 Вт и быть способным выдавать до 38 А по линии 12 В.

В отличие от комплекта поставки GeForce GTX 690 в версии от ZOTAC, в котором помимо стандартных вещей мы обнаружили приятный бонус в виде трёх лицензионных копий игр из популярной серии Assassin’s Creed: Assassin’s Creed I, Assassin’s Creed II и Assassin’s Creed Revelations, комплект поставки видеокарты ASUS GeForce GTX 690 чрезвычайно скромный, как для продукта стоимостью более 1000 долл. США.

В коробке для дополнительных аксессуаров находится диск с драйверами и утилитами, руководство пользователя, один переходник с двух 4-контактных периферийных разъёмов питания на один 6-контактный разъём питания видеокарты и переходник с DVI на HDMI.

В сравнении с «референсным» образцом, набор портов для вывода изображения на видеокарте ASUS GTX690-4GD5 не претерпел никаких изменений:

Для вывода изображения по кабелю HDMI предполагается использование комплектного переходника DVI – HDMI.

Внешний вид и элементная база

Печатная плата графического ускорителя ASUS GeForce GTX 690 выполнена на текстолите черного цвета. Как видим, дизайн печатной платы, и элементная база видеокарты ASUS GeForce GTX 690 не отличается от эталонного варианта, предложенного инженерами NVIDIA.

Система стабилизации питания видеокарты, выполнена по схеме 10+4 фазы (по пять фаз для каждого GPU и по две для каждого набора чипов памяти соответственно).

Эта достаточно мощная система стабилизации питания распаяна в центральной части печатной платы и управляется двумя ШИМ-контроллерами OnSemi NCP 4206.

Для объединения вычислительной мощности двух чипов NVIDIA GK104 на плате используется чип-коммутатор PEX8747 производства компании PLX Technology.

Помимо разъёма PCI-Express 3.0, дополнительное питание видеоускорителя ASUS GeForce GTX 690 обеспечивается через два 8-контактных силовых разъёма, установленных на боковой стороне видеокарты.

Как и в других версиях видеокарт на основе графического процессора GeForce GTX 690 в ASUS GTX690-4GD5 заявлена поддержка технологии NVIDIA SLI. Соответственно на плате присутствует один коннектор для соответствующего мостика, который позволяют объединять две видеокарты в режиме Quad-SLI для совместного расчета графических эффектов.

Аналогично «референсному» образцу, помимо крепежных отверстий для системы охлаждения и нескольких компонентов модуля стабилизации питания, обратная сторона ASUS GTX690-4GD5 ничем не примечательна.

В основе ASUS GTX690-4GD5 лежат два графических чипа NVIDIA GK104 (Kepler), произведенных по 28 нм техпроцессу. Как мы знаем, каждый содержит 1536 универсальных шейдерных конвейера (или ядер CUDA по терминологии NVIDIA), 112 текстурных юнитов и 32 блока растеризации. Частота работы графического ядра, как мы уже упоминали, была понижена относительно чипа NVIDIA GK104 применяемого в NVIDIA GeForce GTX 680 и составляет 915 МГц. Благодаря поддержке рассматриваемым продуктом технологии GPU Boost, в турборежиме частота графического ядра может достигать 1019 МГц. Обмен данными между каждым графическим ядром с выделенным под его нужды объемом в два гигабайта памяти осуществляется через 256-битную шину. Остальные характеристики приведены на скриншоте выше.

Видеопамять общим объемом 2 х 2048 МБ набрана с помощью шестнадцати микросхем от Samsung по 256 МБ. Чипы промаркированы K4G20325FD-FC03 и согласно документации имеют номинальную частоту 6 ГГц.

Система охлаждения ASUS GTX690-4GD5 аналогична решению, предложенному инженерами NVIDIA. Фактически, на всех доступных в продаже (на момент написания статьи) версиях NVIDIA GeForce GTX 690 применяется одна и та же «референсная» версия системы охлаждения, которая состоит из двух небольших радиаторов с испарительной камерой в основании, между которыми размещается кулер диаметром 80 мм. Кожух кулера состоит из трёх частей: рамки вентилятора, а также двух накладок из алюминия и оргстекла, через которые можно рассмотреть рёбра основных радиаторов.

В основе системы охлаждения находится массивная металлическая крепежная пластина, которая также выступает в роли охладителя для чипов памяти и силовых транзисторов, которые контактируют с ней при помощи специальных термопрокладок.

Как видим, конструкция системы охлаждения подразумевает выброс части нагретого воздуха за пределы системного блока через специальные вентиляционные отверстия рядом с видеовыходами. Остальной воздух выходит в системный блок через специальный вырез в задней части пластикового кожуха.

Более подробно с фотографиями разобранной системы охлаждения вы можете ознакомиться в обзоре ZOTAC GeForce GTX 690 4 ГБ GDDR5.

Несмотря на тот факт, что в ASUS GTX690-4GD5 применяется «референсная» система охлаждения, а память и GPU работают на стандартных частотах, нами был проведен наш стандартный набор тестов с помощью утилиты MSI Kombustor.

При автоматическом регулировании скорости вращения вентиляторов, в режиме максимальной нагрузки первое и второе ядро нагрелись до 77 и 83 градусов соответственно, а кулер, судя по показаниям мониторинга, работал при этом всего на 63% своей мощности.

В режиме максимальной скорости вращения вентиляторов температура первого GPU снизилась на 8, а второго на 10 градусов, и составила 69 и 73 градуса соответственно. Полученные результаты являются достаточно хорошими, и даже немного превосходят результаты показанные ZOTAC GeForce GTX 690 4 ГБ GDDR5, что, скорее всего, связано с погрешностью тестов, поскольку системы охлаждения обеих видеокарт аналогичны. Шум издаваемый системой охлаждения на максимальных оборотах кулера, можно охарактеризовать как «выше среднего».

Читайте также:  Ldp exe windows 10

При отсутствии нагрузки частоты графических ядера и памяти автоматически понижаются, что приводит к меньшему энергопотреблению и тепловыделению. Кулер в таком режиме работает почти бесшумно, а температура графических ядер не превышает отметку 33 градусов.

При тестировании использовался Стенд для тестирования Видеокарт №3

Процессор Intel Core i7-980X Extreme Edition (LGA 1366, 6 core, 3,33 ГГц, L3 12 МБ) @4,1 ГГц
Материнская плата MSI Big Bang-XPower (LGA 1366, Intel X58 Express, DDR3, ATX)
Кулер Cooler Master V8 (LGA 1366, 69,69 CFM, 2,94 мм H2O, 17-21 дБ)
Оперативная память 3x 2 ГБ Kingston DDR3-2250 (KHX2250C9D3T1FK3/6GX)
Жесткие диски 2x 128 ГБ Kingston SSDNow V+ (SNVP325-S2B/128GB)
Блок питания Seasonic M12D-850 (850 Вт, 120 мм, 20 дБ)
Корпус Antec LanВoy Air Yellow (MidiTower, Transformer)
Монитор ASUS VG236H (Full HD, 1920×1080, 3D, 120 Гц) + NVIDIA 3D Vision Kit
Операционная система Microsoft Windows 7 64-bit

Выберите с чем хотите сравнить GeForce GTX 690 2x2GB GDDR5 ASUS

Как видим, ASUS GTX690-4GD5 демонстрирует практически аналогичные результаты с рассмотренной ранее ZOTAC GeForce GTX 690 4 ГБ GDDR5, разница в результатах обусловлена погрешностью тестирования.

С момента нашего знакомства с «топовым» графическим ускорителем от NVIDIA ничего не изменилось, поскольку компания AMD так и не представила официально свое решение 7990, а личные инициативы от различных компаний пока далеки от совершенства, то титул самой производительной видеокарты заслуженно остается за ним.

Если производить сравнение с одной из лучших версий ускорителя на GeForce GTX 680, а именно MSI Lightning, то мы видим вполне логичную картину. MSI GTX 680 Lightning с одним чипом NVIDIA GK104 с хорошим заводским разгоном демонстрирует 30-40% отставание от «двуглавого монстра», который поставляется с пониженными частотами GPU.

Конечно, самым интересным было бы произвести сравнение производительности SLI конфигурации из двух NVIDIA GeForce GTX 680 против 690 модели, однако данной возможности пока нет. Однако стоит учитывать перед покупкой двух видеокарт NVIDIA GeForce GTX 680, что по энергопотреблению и уровню шума явным лидером выступит NVIDIA GeForce GTX 690. А к вопросу тестирования двух NVIDIA GeForce GTX 680 в SLI режиме, возможно, мы вернемся позже.

Принимая во внимание достаточно производительную систему охлаждения, а также тот факт, что рассмотренный нами ранее графический ускоритель ZOTAC GeForce GTX 690 4 ГБ GDDR5 продемонстрировал достаточно неплохой разгонный потенциал, от ASUS GTX690-4GD5 мы ожидали как минимум аналогичные результаты.

После поднятия напряжения питания графического ядра, с помощью утилиты MSI Afterburner 2.2.0 нам удалось разогнать его до 1125 МГц (прирост 23% относительно «референса»), а с учётом работы технологии GPU Boost частота составила в среднем 1203 МГц. Видеопамять при этом удалось ускорить до частоты 7248 МГц (прирост 20%). Стоит отметить, что выдающимися результаты разгона GPU назвать достаточно сложно, однако можно отметить очень хорошие результаты памяти, полученные в результате разгона 7248 МГц выше аналогично показателя у версии от ZOTAC практически на 1000 МГц.

Оценить прирост производительности вследствие ручного разгона можно в таблице ниже:

Futuremark 3DMark Vantage

Futuremark 3DMark 11

Crysis Warhead, DirectX 10, Maximum Quality, fps

Crysis Warhead, DirectX 10, Maximum Quality, AA4x/AF16x, fps

Far Cry 2, DirectX 10, Ultra Quality, NO AA/AF, fps

Aliens vs. Predator DX11 Benchmark, Maximum Quality, NO AA/AF, fps

Aliens vs. Predator DX11 Benchmark, Maximum Quality, AA4x/AF16x, fps

Colin McRae: DiRT 2, DirectX 11, Maximum Quality, NO AA/AF, fps

Colin McRae: DiRT 2, DirectX 10, Maximum Quality, AA4x/AF16x, fps

Metro 2033 Benchmark, DirectX 11, Maximum Quality, NO AA / AF4x, fps

Metro 2033 Benchmark, DirectX 11, Maximum Quality, AA4x/AF16x, fps

В среднем в результате разгона производительность видеокарты выросла на 8%. Как видим, более низкая, чем в ZOTAC GeForce GTX 690, частота разогнанных графических ядер компенсирована отличным результатом по разгону видеопамяти, что позволило получить аналогичный прирост производительности. Несмотря на все вышесказанное, стоит отметить, что на сегодняшний день сложно придумать сценарий эксплуатации, при котором разгон графического адаптера на базе NVIDIA GeForce GTX 690 был бы оправдан с практической точки зрения, ведь даже в состоянии «из коробки» ASUS GeForce GTX 690 демонстрирует более чем достаточную производительность и относительно низкое энергопотребление.

Подводя итоги тестирования ASUS GeForce GTX 690 , стоит отметить тот факт, что по состоянию на сентябрь 2012 года все версии графического ускорителя NVIDIA GeForce GTX 690 от разных производителей выполнены в соответствии с эталонным образцом и оснащены аналогичными системами охлаждения. Соответственно, выбор «топовой» видеокарты от NVIDIA может основываться только на личных предпочтениях к тому, либо иному производителю. Единственные отличия, которые могут повлиять на ваш выбор, это комплект поставки и незначительная разница в стоимости в пределах 10 – 20 долл. США, что несущественно при стоимости видеокарты около 1000 долл. США.

Из особенностей ASUS GeForce GTX 690 (ASUS GTX690-4GD5) стоит упомянуть, пожалуй, лишь скромный комплект поставки и стандартный недостаток для всех подобных видеокарт, а именно высокую стоимость. Критических недостатков в процессе тестирования замечено не было.

Отдельно стоит отметить, что аналогичную производительность рассматриваемому сегодня решению сможет продемонстрировать связка из двух видеокарт на основе NVIDIA GeForce GTX 680. Однако в пользу подобного выбора может говорить разве что итоговая цена комплекта, тогда как уровень шума и общего энергопотребления двух видеокарт точно не в пользу подобного варианта.

Описание

NVIDIA начала продажи GeForce GTX 690 3 мая 2012 по рекомендованной цене 999$. Это десктопная видеокарта на архитектуре Kepler и техпроцессе 28 нм, в первую очередь рассчитанная на геймеров. На ней установлено 4 Гб (4 Гб на GPU) GDDR5 памяти GDDR5 на частоте 6.01 ГГц, и вкупе с 512-bit (256-bit на GPU) интерфейсом это создает пропускную способность 384 Гб / s.

С точки зрения совместимости это двухслотовая карта, подключаемая по интерфейсу PCIe 3.0 x16. Длина референсной версии – 27.9 см. Для подключения требуется дополнительный 2x 8-pin кабель питания, а потребляемая мощность – 300 Вт.

Она обеспечивает слабую производительность в тестах и играх на уровне 18.95% от лидера, которым является NVIDIA GeForce GTX 1080 SLI (мобильная).

Оглавление

Вступление

Несколько лет назад компания ATI (уже приобретенная AMD, но на некоторое время сохранившая свое название, которое позже было трансформировано в ATI/AMD, а потом и вовсе упразднено) разработала чрезвычайно эффективную стратегию, позволившую отвоевать у вечных конкурентов из NVIDIA немалую долю рынка.

Тактика была проста – сделать ядро проще, чем у соперника, но с хорошей производительностью, и как можно быстрее вывести свою линейку продуктов на рынок. При этом бороться с оппонентом в верхних ценовых сегментах предполагалось с помощью повышения частот (вспомним «разогнанный» Radeon HD 4890) и агрессивной ценовой политики, а в топ-классе — противопоставляя флагману «зеленых» двухпроцессорную видеокарту на базе пары простых и «негорячих» GPU.

реклама

Конструкторам AMD работать было намного проще. Вдумайтесь — ни разу со времен Radeon HD 2900 (а это четыре поколения, для компьютерной индустрии — целая вечность) топовый графический процессор AMD/ATI не был крупнее по площади, не содержал больше транзисторов, не обладал большим тепловыделением, нежели конкурирующее решение NVIDIA. Разумеется, такие GPU куда проще «склеить» в двухпроцессорную карту.

Подробнее о перипетиях борьбы двух вендоров вы можете прочитать в «Краткой истории эволюции двухпроцессорных видеокарт». К чему всё это сейчас? На мой взгляд, ситуация повторяется в «зеркальном» варианте. Компания NVIDIA впервые за долгое время выпустила более простой (читать, «содержащий меньше транзисторов») графический процессор, чем конкурент.

Занятно, что по общепринятой версии конструкторский отдел NVIDIA «мечтал» об очередном «пышущем жаром монстре» — GK100/110, но что-то не срослось, да и сроки поджимали, поэтому было решено сосредоточиться на тщательной доработке младшего GPU GK104, который (на это недвусмысленно намекает цифровой индекс) изначально проектировался для карты среднего класса. В итоге получилось даже лучше, чем ожидали.

Читайте также:  Diskpart не видит жесткий диск

GeForce GTX 680, благодаря прогрессивной архитектуре и «отточенным» драйверам, в большинстве тестов обходит грозный Radeon HD 7970, или, по крайне мере, идет с ним вровень. При этом карта сохраняет ряд черт, характерных не для флагмана, а именно для ускорителей «среднего класса»: небольшие габаритные размеры, умеренные уровни энергопотребления и тепловыделения. Относительно простой GPU позволил NVIDIA проводить агрессивную ценовую политику: изначально заявленная стоимость GTX 680 на 50 долларов ниже, чем у Radeon HD 7970.

реклама

Архитектурные особенности, технические характеристики

Для начала приведу таблицу характеристик, в которой содержатся данные по всем картам, принимающим участие в тестировании. Исключение – GeForce GTX 580, этот ускоритель в испытаниях не участвовал, поскольку относится к предыдущему поколению и заметно уступает остальным участникам по производительности. Однако его характеристики необходимы для сравнения с GTX 590, чтобы нагляднее описать тот «рецепт», по которому NVIDIA создает свои двухпроцессорные решения.

Наименование HD 7970 GTX 580 GTX 590 GTX 680 GTX 690
Наименование графического процессора Tahiti XT GF110 GF110 x 2 GK104 GK104 x 2
Техпроцесс, нм 28 40 40 28 28
Площадь ядра, мм 2 365

530 x 2

294 294 x 2

Количество транзисторов, млн шт. 4300 3300 3300 x 2 3540 3540 x 2

Частота ядра, МГц 925 772 / 1544 608/1216 1006 * 915*

Число шейдеров (PS), шт. 2048 512 512 x 2 1536 1536 x 2

Число блоков растеризации (ROP), шт. 32 48 48 x 2 32 32 x 2

Число текстурных блоков (TMU), шт. 128 64 64 x 2 128 128 x 2

Макс. скорость закраски, Гпикс/с 29,6 37,1 58,4 32 58,6

Макс. скорость выборки текстур, Гтекс/с 118,5 49,4 77,8 128 234,2

Версия пиксельных/ вертексных шейдеров 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0

Тип памяти GDDR5 GDDR5 GDDR5 GDDR5 GDDR5

Эффективная частота памяти, МГц 5500 4008 3420 6008 6008

Объём памяти, Мбайт 3072 1536 1536 x 2 2048 2048 x 2

Разрядность шины памяти, бит 384 384 384 x 2 256 256

Пропускная способность памяти Гбайт/с 264 192,4 164 х 2 192 192 x 2

Потребляемая мощность (2D/ 3D), Вт 3 / 250 нд / 244 нд / 365 нд / 195 нд / 300

Crossfire/Sli да да да ** да да **

Габариты (ДхШхВ), мм 275x111x37 270x111x38 280x111x38 260x111x38 280x111x38

Рекомендованная цена, долларов США 550 499 699 500 999 * Базовая частота, без учета GPU Boost.
** Только в варианте Quad-SLI из двух двухпроцессорных карт.

Итак, новая флагманская видеокарта использует пару графических процессоров архитектуры Kepler, их кодовое имя – GK104.

Этот GPU уже знаком оверклокерам и всем любителям «железа» по ускорителю NVIDIA GeForce GTX 680. Кристалл содержит

3.54 млрд транзисторов, что на 240 млн больше, чем у предшествующего GF110 (+7%, разница незначительна именно из-за того, что GK104 изначально создавался как процессор среднего класса, и только позже стал рассматриваться в качестве основы для «флагманской» карты). Однако, благодаря передовому 28-нм техпроцессу, площадь ядра гораздо меньше – всего 294 мм 2 против 530 мм 2 (разница достигает 80%). То же касается энергопотребления и тепловыделения нового GPU.

Это важно, поскольку NVIDIA в свое время пришлось изрядно постараться, чтобы объединить два громоздких и «прожорливых» GF110 на одной плате. С предшествующим «сотым» GPU, сходным по конструкции и лежавшим в основе GeForce GTX 480, такой «фокус» и вовсе не прошел – вот почему в «четырехсотой» серии не было двухпроцессорной карты, и AMD доминировала в высшем ценовом сегменте с Radeon HD 5970. Установить два 40-нм GPU на одной печатной плате удалось только после окончательной обкатки 40-нм техпроцесса (по аналогии с CPU можно назвать это новым «степпингом») и введения технологии динамической подстройки частоты, которая ограничила нагрев карты и нагрузку на цепи питания в особо тяжелых режимах.

И все-таки получившуюся карту — GTX 590, удалось вписать в приемлемые рамки по энергопотреблению и тепловыделению только после значительного снижения частот в сравнении с однопроцессорной GTX 580. Так GPU был «замедлен» с 772 до 608 МГц (

27%) с одновременным снижением напряжения питания, видеопамять — с 4008 до 3420 МГц (

17%). С новой видеокартой ситуация иная: базовая частота ядра в сравнении с однопроцессорной моделью снижена только на 10% — с 1006 до 915 МГц, память и вовсе не пострадала и в обоих случаях работает на частоте 6000 МГц.

При этом новый техпроцесс позволил вписать карту в тепловой пакет 300 Вт, для сравнения — «урезанная» по частотам GTX 590 обладает TDP на уровне 365 Вт (разница

22%). Также NVIDIA приводит в своем пресс-релизе «неофицальную» цифру 263 Вт – таково, по данным компании, реальное потребление ускорителя при «неэкстремальной» нагрузке в абсолютном большинстве тестов и игр. По этим данным GTX 690 совсем незначительно превосходит однопроцессорную GTX 580, для которой заявлена цифра 244 Вт.

В распространенном среди обозревателей документе неоднократно подчеркивается, что GTX 690 – это практически равноценная замена паре GTX 680 в SLI (этому посвящен целый раздел). Забегая вперед, скажу, что все основания для такого утверждения есть. Данный ускоритель, как и младшая модель, поддерживает технологию «динамического» разгона GPU BOOST, на протяжении тестирования неоднократно наблюдались частоты более 1 ГГц при заявленном «номинале» 915 МГц. Помимо этого, специалисты NVIDIA отмечают, что новинка должна обладать неплохим разгонным потенциалом.

Важно, что при этом заявленный уровень TDP GeForce GTX 690 и GTX 680 различается не в два раза, а лишь в полтора (если быть точным – на 53%, 300 Вт против 195 Вт)

В остальном пресс-релиз не слишком интересен. В нем приводится несколько «рекламных» графиков сравнения производительности с непропорциональной шкалой…

реклама

… ряд второстепенных сведений для обозревателей, и описание фирменных технологий, большинство из которых либо знакомы нашим читателям уже давно (PhysX, 3D Surround), либо были описаны в недавнем обзоре «родственной» GeForce GTX 680 (GPU Boost, Adaptive VSync, режимы сглаживания FXAA, TXAA).

В том же материале вы можете почерпнуть подробнейшие сведения по архитектуре графического процессора GF104 и его отличиях от предшествующих GPU компании NVIDIA.

Итак, выводы по разделу:

  • Новая видеокарта создана на основе пары процессоров GF104 архитектуры Kepler и может быть описана как «GTX 680×2». У этих карт совпадает тип и конфигурация видеоядра, разрядность шины памяти, тип и объем видеопамяти (на каждый GPU).
  • Уровень энергопотребления/тепловыделения новой видеокарты (по сравнению с предшествующей двухпроцессорной моделью компании) снижен с 365 до 300 Вт.
  • Ускоритель позиционируется как равная замена GeForce GTX 680 SLI при нескольких преимуществах: использование только одного слота PCIe, меньшее энергопотребление, меньший уровень шума (скорее всего, эти данные получены производителем при установке двух GTX 680 «впритык», но их тоже нужно учесть).

«На бумаге» GeForce GTX 690 выглядит чрезвычайно интересно. При производительности, сопоставимой с GTX 680 SLI, эта карта должна стать мощнейшим одиночным видеоускорителем в истории. А снижение тепловыделения в сравнении с GTX 590 может обеспечить вполне приемлемый уровень шума при работе. Пора перейти к внешнему осмотру.

NVIDIA GeForce GTX 690

реклама

Упаковка и комплектация, гвоздодёр

Вообще-то, ни о какой «упаковке и комплектации» применительно к данному ускорителю не может быть и речи. NVIDIA самостоятельно не выпускает видеокарты для свободной продажи (правда, были сообщения о небольших партиях под этой маркой для американского рынка), так что перед нами в чистом виде тестовый экземпляр, предназначенный исключительно для прессы и специалистов. Поэтому раздел и получил такое нетрадиционное шуточное название.

Скорее всего, многие читатели уже в курсе о забавной акции NVIDIA – новость о ней была опубликована на Overclockers.ru еще пару дней назад. Однако она стоит того, чтобы быть упомянутой еще раз.

Читайте также:  7 Уровневая модель оси

Дело в том, что ускоритель поставляется обозревателям в здоровенном деревянном ящике.

реклама

По-настоящему деревянном: из толстых досок, сбитых гвоздями. Скорее всего, компания стремилась «сыграть» на военной тематике – она вообще популярна у производителей «железа». Об этом свидетельствует надпись на крышке (ее непросто перевести на русский – что-то вроде «Внимание, оружейная мощь для игр»), к тому же, именно в таких ящиках в американской армии перевозится оружие и боеприпасы (обратите внимание на «армейские» коды на одной из сторон).

Но ситуация была бы вполне тривиальной, если бы не гвоздодер-фомка NVIDIA, который был вручен мне вместе с ящиком.

Настоящий гвоздодер NVIDIA: с фирменным клеймом, стальной, нешуточных размеров и весом более килограмма:

реклама

Чтобы усилить юмористический эффект, на нем есть надпись «использовать при нападении зомби или…».

Шутка возымела успех. О «гвоздодёре против зомби» не писал только ленивый. Читатели Overclockers.ru тоже оценили юмор, в комментариях к новости было немало шуточек, начиная с вариаций на тему «сыграть в ящик» и до великолепного «двустороннего» каламбура «А что – всё в порядке же: ПЕЧ и дрова к ней».

Впрочем, этот читатель чуть ошибся. «ПЕЧ» в ящике, и правда, нашлась – «закатанная» в толстенный слой поролона…

реклама

… а вот диск с «дровами» — нет, новый ForceWare 301.33 пришлось скачивать из интернета.

В целом – интересно, будет здорово, если AMD при выпуске своего двухпроцессорного флагмана тоже ответит чем-нибудь эдаким.

Внешний вид и размеры

реклама

В официальном пресс-релизе немало внимания уделено «экзотическому индустриальному дизайну». При этом производитель даже чуть перегибает палку в цветистости выражений: «кожух выполнен из алюминия и защищен тривалентным хромом» — проще говоря, «хромирован».

«Рамка вентилятора выполнена из магниевого сплава… магниевый сплав используется в конструкции Bugatti Veyron и истребителя F-22». Слава богу, карбоновую печатную плату и кевларовый кожух решили не использовать .

реклама

Одиночный крупный вентилятор лопастного типа установлен по центру ускорителя. Благодаря «глухому» кожуху, карта неплохо выдувает нагретый воздух через решетку на задней панели. Но не меньший поток наблюдается и с обратной стороны. К сожалению – это единственно возможная компоновка для обеспечения равномерного охлаждения двух графических процессоров. Впрочем, я полагаю, что найдется немного желающих использовать GTX 690 в тесном плохо проветриваемом корпусе. Да и «односторонний» выдув — это много лучше, чем ничего; большинство «нерефернсных» карт с лопастными вентиляторами вполне нормально работают, гоняя воздух по кругу.

Что касается размеров GeForce GTX 690, взгляните на фотографию:

Это «бутерброд» из нового флагмана NVIDIA и предшествующего двухпроцессорного ускорителя компании – модели GeForce GTX 590. Их размеры идентичны. Высота видеокарт стандартна – 111 мм (по габариту рамки задней панели), «толщина» – 38 мм (что соответствует «двухслотовой» компоновке), длина – 280 мм. На последний показатель принято обращать внимание, поскольку избыточно длинный ускоритель может быть несовместим с некоторыми моделями корпусов.

У GeForce GTX 690 с этим все в порядке – карта лишь на 5 мм длиннее стандартного Radeon HD 7970 (275 мм), на 10 мм — GeForce GTX 580 (270 мм). Она должна нормально устанавливаться во все корпуса «полного» формата и абсолютное большинство «средних башен» (Midi Tower).

На задней панели ускорителя распаяно сразу четыре разъема видеовыходов. С нынешней модой на системы с несколькими экранами – это резонно.

Обращаю внимание, что NVIDIA отдает предпочтение обычным разъемам DVI – их здесь сразу три, а AMD старается использовать больше DisplayPort (у GTX 690 только один подобный видеовыход), хотя соответствующие модели мониторов дороги и распространены сравнительно мало.

Для питания видеокарты предусмотрено два восьмиштырьковых разъема. Напомню, что такая же конфигурация использовалась и на GeForce GTX 590.

Расположение разъемов на GeForce GTX 690 и GTX 590 также совпадает: они размещены «в хвосте» карты и направлены вверх по отношению к текстолиту материнской платы. В отличие от GTX 680 на этом ускорителе разъемы расположены классическим способом, а не «в два этажа».

В системе с видеокартой GeForce GTX 690 специалисты NVIDIA рекомендуют использовать блок питания с выходной мощностью не менее 650 Вт. Это вполне разумная цифра для мощного игрового ПК.

По итогам внешнего осмотра GeForce GTX 690 оставляет приятное впечатление. Отдельно можно отметить необычный дизайн и не самую большую длину ускорителя, сопоставимую с однопроцессорными моделями высокого класса. Кстати, вы не находите, что карта удивительно похожа на GeForce GTX 590? Если одна из компаний-партнеров NVIDIA вдруг выпустит ускоритель с кожухом, покрытым наклейками – эти модели окажутся «близнецами», с трудом различимыми при беглом осмотре. В ходе дальнейшего изучения GTX 690 выяснилось, что и в конструктивном плане у нее очень много общего с моделью-предшественницей. Взять, к примеру, систему охлаждения.

Система охлаждения

Конструкторы NVIDIA тщательно проработали вопрос чистки радиатора от пыли. Обычно ему не уделяется должного внимания, а зря – мне не раз приходилось «до нуля» разбирать стендовые видеокарты, чтобы добраться до радиатора. Здесь все на порядок проще.

Как уже говорилось, осмотр радиатора удобно производить через специальные окошки в кожухе. Сам же кожух крепится к металлической рамке-основанию СО помощью винтов. Да, их довольно много (восемь, очевидно, это сделано, чтобы карта была более «монолитной»), но на разборку уходит всего пара минут.

Сам кожух – непримечательная алюминиевая деталь. После его снятия карта предстает вот в таком виде:

Ребра радиатора лишены «загибов» на концах (они нужны, чтобы воздух от вентилятора проходил «вдоль» радиатора, не рассеиваясь, здесь эту роль играет сам кожух), так что достаточно взять кисть и пройтись по ним сверху. Это удобно.

По конструкции система охлаждения чрезвычайно похожа на ту, что устанавливалась на GeForce GTX 590. Сравните.

GeForce GTX 690:

GeForce GTX 590:

Наблюдается сходство как по общей компоновке (вентилятор в центре, два отдельных радиатора, обслуживающих графические процессоры), так и по конкретным конструктивным решениям.

Так, в основе конструкции по-прежнему лежит мощная металлическая рама, к которой крепятся и радиаторы, и вентилятор. Также она отвечает за отвод тепла от силовых ключей и микросхем видеопамяти.

Контакт осуществляется через термопрокладки (большая часть осталась на печатной плате, я решил не снимать их «насильно», чтобы не усложнять сборку карты).

В данном случае NVIDIA заявляет о применении специального дизайна «каналов» на рамке (они находятся прямо под крыльчаткой вентилятора и попадают под прямой обдув). Данные «каналы» эффективно направляют воздушный поток в сторону радиаторов, и, к тому же сами рассеивают тепло намного лучше применявшихся ранее небольших штырьков и выступов. Отличная проработка деталей. Также могу отметить, что увеличилась (по сравнению с той же GTX 590) площадь соприкосновения рамки с основными радиаторами СО, что должно благотворно повлиять на температурный режим VRM и микросхем памяти.

Сами радиаторы, как и раньше, состоят из алюминиевых ребер, напаянных на плоские испарительные камеры. Площадь радиаторов чуть возросла (это легко определить даже визуально, внутреннее пространство кожуха используется теперь более эффективно), в сочетании с описанными аэродинамическими улучшениями это должно дать неплохой эффект. Диаметр крыльчатки вентилятора по-прежнему составляет 80 мм. Количество лопастей (девять) не изменилось, равно как и их профиль.

В целом — перед нами уже знакомая конструкция СО на основе двух испарительных камер, которая подверглась некоторым «косметическим» улучшениям. Что ж, вкупе они могут заметно повысить эффективность охлаждения. Важно и то, что новая видеокарта обладает меньшим тепловыделением в сравнении с GeForce GTX 590. Все это позволяет надеяться на значительное улучшение температурных и шумовых характеристик двухпроцессорного флагмана NVIDIA.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

*

code