1. Главная страница » Компьютеры » Nvidia geforce 6600 или radeon х1300

Nvidia geforce 6600 или radeon х1300

Автор: | 16.12.2019

Содержание

В фокусе данной статьи одна из лучших видеокарт, популярность которой не снижается на протяжении нескольких лет — GeForce 6600. Буквально за несколько лет технологии в области игровых приложений шагнули так далеко, что большинство пользователей уже и не помнят об устройствах такого класса. Однако есть категория людей, которые предпочитают использовать компьютеры до первой поломки, не подвергая их усовершенствованиям. Именно для этой целевой аудитории и предназначена данная статья.

Читатель узнает, чем так популярен данный видеоадаптер среди пользователей, познакомится с представителями рынка, построенными на базе GeForce 6600, и получит полную информацию тестирования производительности и данные о разгоне данной видеокарты.

Историческая справка

Всё дело в том, что видеоадаптер Nvidia GeForce 6600 был произведён в момент перехода производителей компьютерных комплектующих с одной технологии на другую (шина для видео AGP сменялась на PCI разъём). Соответственно, производитель попытался сесть на два стула: сделать самое быстрое устройство для старой технологии AGP и, не зная тенденций нового рынка, внедрить все доступные на момент изготовления технологии в устройства с новой шиной PCI. Принято считать, что именно с видеоадаптера GeForce 6600 началась эпопея с разгоном графического ядра и шины памяти.

Нельзя сказать, что спустя несколько лет видеоадаптер продолжает занимать топовые позиции, скорее, наоборот, его производительность ничтожно мала для современных игр. Зато с уверенностью можно заявить, что видеокарта GeForce 6600 является самым лучшим решением для владельцев старых компьютеров.

Если говорить о чипсете

Чипсет имеет кодовое название NV43 и существует в нескольких модификациях. Первое разделение идёт по платформам: PCI и AGP. А второе касается непосредственно технических характеристик. Так производитель создал недорогое решение под названием GeForce 6600 LE, наделив его слабыми характеристиками. Выпустил множество базовых модификаций, которые в маркировке не имеют никаких букв, и сделал топовую линейку GT, обеспечив её высокой мощностью. Причём эта самая мощность достигается за счёт увеличения частот памяти и графического ядра – обычный разгон, только выполненный руками производителя.

В средствах массовой информации достаточно много отзывов ИТ-специалистов, которые уверяют, что на самом деле разделение видеоадаптеров по модификациям, отвечающим за производительность, является обычной отбраковкой. Если чипсет способен стабильно работать в жёстком режиме, его маркируют как GeForce 6600 GT. Если чип нестабильно работает, он никак не маркируется, а если при разгоне происходит сильный нагрев, то быть ему недорогой LE модификацией.

Технические характеристики

Технология изготовления чипа NV43 соответствует стандарту 256 бит, имеет техпроцесс 0,11 мкм и включает в себя 143 миллиона транзисторов. Производитель на базе Nvidia GeForce 6600 представил модификации с шиной памяти GDDR и GDDR3. Естественно, такое различие отразилось на производительности видеоадаптеров (фактически разница в пропускной способности у GDRR3 выше в 1,5 раза). Объём видеопамяти устройства составляет 256 Мб, хотя иногда встречаются экземпляры и с 128 мегабайтами на борту.

Реальная частота работы улучшенной модификации составляет 500 МГц, а вот для дешёвых чипов предел установлен в 350 МГц. Все устройства поддерживают DirectX 9.0c, 10 бит на один канал цвета и оборудованы встроенным ТВ-кодером, который использует мощность видеопроцессора для своей работы. Не стоит забывать, что именно шестая модификация от Nvidia начала эпопею с внедрением особых функций в свои аппаратные решения: адаптивная, настоящая трилинейная фильтрация, UltraShadow и тому подобные дополнения.

Прямой конкурент чипсета

Благодаря тому что у компании Nvidia на рынке есть конкурент – ATI, у всех пользователей появилась возможность приобретать компьютерные комплектующие по доступной цене. Относится данное заявление и к видеокарте в обзоре – GeForce 6600, характеристики которой максимально приближены к ATi Radeon X700 Pro. Видеоадаптер конкурента имеет меньшую частоту графического ядра (425 МГц) и заниженную частоту памяти (800 МГц), однако это вовсе не мешает ему показывать высокую производительность в работе.

Всё дело в технологиях, которые поддерживают адаптеры ATI. Давно отказавшись от гонок за увеличенными частотами, производитель начал внедрять в систему собственные разработки, которые и позволяют демонстрировать отличный потенциал в работе. В средствах массовой информации владельцы отмечают слабую техническую поддержку пользователей в плане драйверов, как это развито у GeForce 6600. Windows 7, обнаруживая дискретный видеоадаптер ATI Radeon X700 Pro, назначает ему интегрированный драйвер.

Лидер на рынке видеокарт

Самым производительным видеоадаптером на базе Nvidia GeForce 6600 GT принято считать продукт от компании Leadtek. Огромной мощностью она обязана высоким показателям частоты графического ядра (550 МГц) и шине памяти (1120 МГц). Высокую скорость для передачи видеоданных ей обеспечивают модули памяти от компании Samsung, время отклика которой составляет 1,6 наносекунд.

Абсолютный лидер по производительности на рынке имеет и несколько недочётов. Во-первых, система охлаждения. Она обеспечивает потоком холодного воздуха только графический чип, а вот модули памяти и другие важные компоненты устройства остались без внимания. Во-вторых, отсутствует видеовход, как это реализовано у всех конкурентов. Зато видеовыход имеет поддержку HDTV. На самом деле не понятно, что это – достоинство или недостаток. Кстати, многие потенциальные покупатели в буквальном смысле гонялись именно за видеоадаптером Leadtek, ведь в его комплектацию входили три лицензионные игры: Splinter Cell, Prince Of Persia и Pandora Tomorrow.

Золотая серия

Когда речь заходит об устройствах, которые построены навечно, то многие владельцы сразу же вспоминают о видеоадаптере GeForce 6600 GT компании Gainward. Видеокарта входит в золотую серию, а значит, наряду с высокой производительностью, гарантирует отказоустойчивость в работе. Производитель сделал интересный маркетинговый ход, установив в БИОСе видеокарты базовые настройки частот видеоядра (500МГц) и шины памяти (1000МГц), он дал на устройство пожизненную гарантию. Только при условии, что пользователь не будет разгонять его. Однако при установке фирменного программного обеспечения, поставляемого в комплекте на диске, видеодрайвер самостоятельно разгоняет графическое ядро до 540 МГц, а шину до 1150 МГц.

По сравнению с конкурентами, производительность видеоадаптера Gainward очень высокая. Аппаратная поддержка видеовхода и видеовыхода с HDTV является отличным дополнением к достойной покупке. Порадует будущего владельца и система охлаждения чипсета, которая эффективно охлаждает все установленные на плате модули.

Без шума и пыли

Если пользователь думает, что видеокарта Nvidia GeForce 6600 GT с пассивным охлаждением вряд ли сможет удивить любителей динамических игр, то он точно заблуждается, ведь компания Gigabyte никогда не допустит, чтобы все вокруг считали её продукты низкосортными. Медный радиатор обхватывает видеоплату с двух сторон, закрывая все установленные на ней чипы. Для нормализации температур между двумя радиаторами имеется достаточно широкая медная трубка.

И всё-таки она греется. Но недостаточно сильно для того, чтобы сработала защита, и компьютер ушёл в перезагрузку системы. Будущим владельцам специалисты рекомендуют подумать о наличии просторного системного корпуса с достойной вентиляцией. Высокую производительность адаптеру обеспечивает увеличенная частота памяти – 1120 МГц и модули Samsung 1,6 нс. В итоге именно этот продукт рекомендуется многим пользователям, для которых в приоритете высокая производительность и бесшумность в работе и играх – конкурентов у Gigabyte для чипа NV43 нет и не предвидятся.

Бриллиантовая серия

Легендарная видеокарта Nvidia GeForce 6600 AGP компании MSI запомнилась всем пользователям своей рекламой, ведь именно благодаря ей все любители динамических игр узнали о прекрасном шутере «Хроники Риддика». Сам герой фильма был изображён на коробке, а игрушка поставлялась бесплатно в комплекте к видеоадаптеру. О мощности устройства заявляла маркировка Diamond. Видеокарта для шины AGP имела огромнейший потенциал – 400 МГц по ядру и 800 МГц для памяти. Очень жаль, что разработчики компании MSI не сделали ещё один шаг вперёд, предоставив пользователю хоть какой-то инструмент для увеличения частоты графического ядра и шины. В тестах этого чуть-чуть очень не хватает.

Позаботился производитель и об охлаждении: кулер обдувает графический контроллер, а чипы памяти снабжены радиаторами. Судя по отзывам, пользователей смущает отсутствие медной накладки с обратной стороны видеоплаты, ведь рассеиваемая мощность как раз раскаляет именно эту часть платы. В целом отношение к продукту положительное, видеокарта красивая, сделана с умом и как для технологии прошлого века очень хорошо справляется с поставленными задачами.

Читайте также:  Esd в iso программа

Странный экстремал

Продукция компании ASUS всегда занимала топовые позиции во всех тестах, однако с видеокартой GeForce 6600 128Mb Extreme у лидера компьютерного рынка вышел конфуз. Тактовые частоты памяти и ядра, установленные на заводе, изменениям не подвержены. Чего хотел добиться производитель ASUS на рынке, остаётся загадкой. Убрав видеовход и разместив медленные модули памяти с откликом 2,5 нс, известный тайваньский бренд не удосужился даже снизить цену на свои продукты.

В средствах массовой информации многие владельцы уверяют окружающих, что ASUS является единственной компанией в мире, которая дополнила комплектацию лицензионной игрой «Joint Operations». В таких высказываниях не наблюдается логика, ведь игру можно приобрести отдельно, а в собственном компьютере всем хочется видеть производительную видеокарту, а не ширпотреб.

Последний герой

Продукт компании Albatron под названием Trinity GeForce 6600 AGP считается эталоном для многих видеокарт, ведь именно этот бренд на заре компьютерной эры задавал направление рынку всех комплектующих. Внешний вид устройств Albatron, будь то видеокарта, материнская плата или тюнер, всегда отличался от конкурентов подчёркнутой строгостью и консерватизмом.

В гонке за высокой производительностью лидер рынка решил не участвовать, направив весь свой потенциал на комплектацию и программное обеспечение, которое поставляется с видеокартой. Очень жаль, что многие производители на данный момент времени очень мало уделяют внимания программному обеспечению, поставляемому с видеоадаптером, ведь именно в этих продуктах и кроется привязанность пользователей к бренду.

Тестирование видеоадаптеров

Заставить устройство GeForce 6600 PCI, работающее по технологии DirectX 9.0, запустить более продвинутую игрушку в тестах вряд ли удастся, поэтому для сравнения видеокарт будут использоваться соответствующие приложения (The Chronicles Of Riddick, Half-Life 2 и Doom3). Естественно, ни о каком параметре FullHD не может быть и речи, используется стандартное разрешение 1024х768 точек на дюйм с 32 битами цветности.

Как и следовало ожидать, лидирующие позиции заняли устройства с максимальными частотами графического ядра и шины памяти: Leadtek, Gainward и Gigabyte. Из этого следует сделать один единственный правильный вывод, что в играх побеждает та видеокарта, которая имеет максимальный разгон. Внешний вид, красота и комплектация – это всё только для отвлечения потенциальных покупателей от высокопроизводительных видеоадаптеров.

Подводные камни для будущих владельцев

Производители всегда скрывают недостатки своей продукции от посторонних глаз. Так произошло и с чипом NV43, который уже успел отличиться от конкурентов и показать свою сверхвысокую прочность кристалла, при неосторожном обращении приводящую к плачевным результатам. Улучшив для GeForce 6600 характеристики производительности с размещением 143 миллионов транзисторов на чипе, производитель не подумал о безопасности, которая нарушается при неосторожном обращении с видеокартой.

Дело в том, что чип неплотно прилегает к поверхности видеокарты, а установленный сверху кулер для охлаждения не имеет выемки под графический чип. Соответственно, если нажать на один из краёв радиатора, то кристалл графического ядра лопается. Тут уже лотерея: отпадёт лишь уголок чипа или весь графический процессор расколется надвое. В первом случае видеоадаптер с высокой вероятностью может работать, а во втором — придётся идти в магазин за новой покупкой.

Проблемы с монтажом видеокарт

Многие владельцы несовременных компьютеров уже успели заметить странное расположение слотов памяти на материнских платах с установленным AGP разъёмом. Такое чувство, что производитель пошутил над пользователями, разместив контакт для установки видеокарты в непосредственной близости от замков для крепления модулей памяти. Все владельцы видеокарт GeForce 6600 имеют шанс сломать пару кондиционеров на плате в процессе установки. И чтобы этого не произошло, нужно производить монтаж с максимальной ответственностью и при хорошем освещении.

В средствах массовой информации ИТ-специалисты рекомендуют сначала установить модули памяти и только потом вставлять видеокарту в разъём. Аккуратно опуская её вниз до упора, нужно пальцами другой руки отводить край платы в сторону от лапок для крепления модулей оперативной памяти. Если торец печатной платы видеоадаптера по какой-либо причине упирается в конденсатор на материнской плате, то пользователь без особых усилий может самостоятельно устранить проблему, аккуратно отогнув мешающее устройство в сторону.

Об эффективном разгоне

Любопытный пользователь непременно придёт к самостоятельным выводам, что производительность видеоадаптера можно увеличить путём разгона и дальше, если под рукой имеется соответствующее программное обеспечение, а видеокарта имеет прекрасное охлаждение. В средствах массовой информации, судя по отзывам за несколько лет, разгону GeForce 6600 уделено много времени не впустую. Владельцам удалось добиться рекордных на то время показателей: частота графического ядра 615 МГц и частота шины 1340МГц.

В первую очередь задачей пользователя является обеспечение видеокарты достойным охлаждением. Вариантов тут множество. Можно заменить штатный кулер каким-то профессиональным решением от Shuttle или Zalman, однако сомнения вызывает цена систем охлаждения. Проще поменять материнскую плату с процессором, чем отдавать круглую сумму за профессиональное решение. Второй вариант – это установка над штатным кулером дополнительного 12 мм вентилятора с потоком воздуха 90-140 CFM. Для разгона рекомендуется использовать официальное программное обеспечение, которое поставляется с драйвером Nvidia.

В заключение

Видеокарта GeForce 6600 – это единственное звено, которое пока что ещё связывает две эпохи персональных компьютеров, способных работать с динамическими играми. Уйдут с рынка переходные модели видеокарт – закончится время старых ПК. И если потенциальный покупатель стоит перед выбором, купить GeForce 6600 или сделать апгрейд всей системы, то стоит подумать над последней мыслью, ведь ничего в нашем мире не существует вечно. Рано или поздно старые технологии будут утеряны для человечества навсегда. Но если для усовершенствования неновой системы стоит выбор между самими видеоадаптерами, тогда однозначно по критерию «цена-качество» покупатель ничего не найдёт достойнее чипа GeForce 6600.

Октябрь порадовал нас выходом сразу нескольких давно ожидаемых игр: F.E.A.R., Quake 4, Serious Sam 2, Age of Empires III и Call of Duty 2. Ни для кого не секрет, что все перечисленные игры поддерживают Shader Model 3.0, с использованием которой картинка довольно часто разительно отличается от изображения, полученного на предыдущей версии шейдеров 2.0(b). До недавнего времени поддержку третьей версии пиксельных шейдеров могли обеспечить только видеокарты, основанные на чипах NVIDIA видеокарт серии 6xxx, а также 7800 GTX(GT) и, ввиду редкого на тот момент использования новой модели шейдеров разработчиками игр, поддержка Shader Model 3.0 являлась при покупке чуть ли не последним по важности аргументом в пользу выбора той или иной видеокарты. В последние месяц-полтора все изменилось, и канадская компания ATI, заранее прогнозируя массовое появление новых игровых хитов (да и, как вы прекрасно понимаете, не только по этой причине), выпустила-таки новую линейку видеокарт Radeon X1K. В ее состав входят следующие модели чипов/видеокарт (в порядке возрастания производительности и стоимости):

  • Radeon X1300 HyperMemory – RV515, 450/1000 MHz, 4 pp, 2 vp, 128-bit, 32 Mb, up to 128 Mb HyperMemory, 79 $;
  • Radeon X1300 – RV515, 450/500 MHz, 4 pp, 2 vp, 128-bit, 128/256 Mb, 99/129 $;
  • Radeon X1300 Pro – RV515, 600/800 MHz, 4 pp, 2 vp, 128-bit, 256 Mb, 149 $;
  • Radeon X1600 Pro – RV530, 500/780 MHz, 12 pp, 5 vp, 128-bit, 128/256 Mb, 149/199 $;
  • Radeon X1600 XT – RV530, 590/1380 MHz, 12 pp, 5 vp, 128-bit, 128/256 Mb, 199/249 $;
  • Radeon X1800 XL – R520, 500/1000 MHz, 16 pp, 8 vp, 256-bit, 256 Mb, 449 $;
  • Radeon X1800 XT – R520, 625/1500 MHz, 16 pp, 8 vp, 256-bit, 256/512 Mb, 499/549 $.

Помимо поддержки Shader Model 3.0, а также заметно возросших частот работы графического процессора и видеопамяти, новые видеокарты имеют переработанные блоки пиксельных и вершинных процессоров, новый контроллер памяти с использованием Ring Bus, улучшенную технологию отсечения невидимых поверхностей HyperZ, а также поддержку новых методов FSAA и анизотропной фильтрации. Дополняет картину новая технология обработки видео – Avivo Display Engine. Но все эти технические изыски не столь важны для оверклокеров, да и соответствующей информации на страницах Рунета имеется предостаточно. Нас с вами прежде всего интересует оверклокерский потенциал видеокарт, основанных на новых чипах, и их производительности при разгоне.

В свою очередь, компания NVIDIA велосипед изобретать не стала, да и не нужно ей это было вовсе, поскольку на момент анонса Radeon X1K на полках компьютерных магазинов в достаточном количестве была представлена самая производительная видеокарта в лице GeForce 7800 GTX. NVIDIA потребовалось лишь обновить дешевый бюджетный сектор и средний ценовой диапазон, что и было сравнительно оперативно проделано. В качестве недорогой модели NVIDIA анонсировала GeForce 6600, но не простой, а со стремительно дешевеющей памятью DDR-2 и частотами 350/800 MHz. Цена на новинку декларирована в пределах 119 долларов США. Что же касается среднего ценового сегмента, то здесь противостоять ATI Radeon X1600 XT предстоит NVIDIA GeForce 6800 GS с частотами 425/1000 MHz и активными 12 пиксельными конвейерами. Сравнение последней пары нас с вами ждет несколько позже, а сегодня я предлагаю посмотреть на противостояние NVIDIA GeForce 6600 DDR-2 и ATI Radeon X1300 Pro.

Читайте также:  Asos скидка в приложении

реклама

Характеристики NVIDIA GeForce 6600 DDR-2 ATI Radeon X1300 Pro
Графический чип NV43 RV515
Техпроцесс, мкм 0.11, TSMC 0.09, TSMC
Число транзисторов, млн.

105

Номинальные частоты работы, MHz (графический чип/память) 350 / 800 600 / 800 Объем памяти, Mb 256 256 или 128 Тип памяти и ширина шины GDDR-2, 128 Bit GDDR-2, 128 bit / 64 bit Интерфейс PCI-Express x16 PCI-Express x16 Число активных пиксельных конвейеров, шт. 8 4 TMU на конвейер, шт. 1 1 Число вершинных процессоров, шт. 3 2 Поддержка версии Pixel Shaders 3 3 Поддержка версии Vertex Shaders 3 3 Теоретическая скорость закраски (Fillrate), Mpix./s 2800 2400 Полоса пропускания памяти, Gb/s

12.8

Потребляемая мощность, W

Обращает на себя внимание высокая частота работы графического процессора ATI Radeon X1300 Pro, но при этом смущает факт наличия только четырех пиксельных конвейеров в противовес восьми конвейерам NVIDIA GeForce 6600 DDR-2. Тестирование расставит все точки над i, а пока рассмотрим два продукта, основанных на новых (старых) чипах.

Продукт компании XFX поставляется в стилизованной под букву икс упаковке, на лицевой стороне которой изображен свирепо несущийся на вас то ли медведь, с сильно выпирающими клыками и в зеленой маске, то ли волк:

ATI, наконец, выпустила на рынок новое поколение видеокарт. Новое семейство содержит три новых видеочипа: R520, RV530 и RV515. Нетрудно догадаться, что R520 — топовый продукт, а чипы RV — это его урезанные версии. Самая «обделённая» из них — это RV515, на базе которого и построена видеокарта X1300, которая участвует в этом тесте.

Официальные спецификации RADEON X1300

  • Кодовое имя чипа RV515
  • Технология 90 нм
  • 105 миллионов транзисторов FС корпус (flip-chip, перевернутый чип без металлической крышки)
  • 128 бит интерфейс памяти
  • До 256 мегабайт DDR1/2 или GDDR-3 памяти
  • Поддержка технологии HyperMemory
  • PCI Express 16х шинный интерфейс
  • 4 пиксельных процессора (один квад)
  • 4 текстурных блока
  • Вычисление, блендинг и запись до 4 полных (цвет, глубина, буфер шаблонов) пикселей за такт
  • 3 вершинных процессора
  • Сквозная точность вычислений — FP32 (и вершины и пиксели)
  • Полная поддержка SM 3.0 (шейдеры версии 3.0), включая динамические ветвления в пиксельных и вершинных процессорах, выбор значений текстур из вершинных процессоров и т.д.
  • Эффективная реализация переходов и ветвлений
  • Поддержка FP16 формата: полностью поддерживается вывод в буфер кадра в плавающем формате FP16 (включая любые операции блендинга и даже MSAA). Сжатие FP16 текстур, включая 3Dc.
  • Новый RGBA (10:10:10:2) целочисленный тип данных в буфере кадра для более качественного рендеринга без привлечения FP16.
  • Новый качественный алгоритм анизотропной фильтрации (пользователю доступен выбор между более быстрой и более качественной реализацией анизотропии), улучшена трилинейная фильтрация
  • Поддержка «двустороннего» буфера шаблонов
  • MRT (Multiple Render Targets — рендеринг в несколько буферов)
  • Контроллер памяти с 4-х канальным кроссбаром 4*32 бита (4 канала памяти, программируемый арбитраж). Эффективное кэширование и новая более эффективная реализация HyperZ
  • 2xRAMDAC 400 МГц
  • 2xDVI интерфейса c поддержкой HDCP
  • TV-Out и TV-In интерфейс, HDTV-Out
  • Аппаратный видеопроцессор (для задач компрессии, декомпрессии и постобработки видео), новое поколение, способное ускорять работу с H.264, — новым алгоритмом компрессии видео, используемым в HD-DVD и Blu-Ray видеодисках.
  • 2D ускоритель с поддержкой всех функций GDI+

Из спецификаций видно, что RV515 содержит всего 4 пиксельных процессора и столько же текстурных блоков (раньше можно было бы сказать: «4 пиксельных процессора с 1 текстурным блоком на каждом*», но новая архитектура от ATI сломала устоявшиеся принципы строения микроархитектур видеочипов — теперь пиксельные процессоры и текстурные блоки друг от друга не зависят. Управляет пересылкой данных между ними «Ultra Threading Dispatch Processor», который при помощи хитрых алгоритмов распределяет данные между текстурниками и пиксельными конвейерами, следя за тем, чтобы все были заняты работой и свободные блоки не простаивали без дела.)

Если не учитывать, что новая архитектура может иметь более высокий КПД, то можно предположить, что соперниками видеокарт на этом чипе будут карточки 6600LE (4 конвейера, 4 TMU, 3 три вершинных процессора) и 6600(8 конвейеров, 4 TMU, 3 три вершинных процессора).

Именно с этими видеокартами будет сравниваться поступившая на тестирование X1300 256Mb. Надо заметить, что есть также версия X1300Pro, которая отличается от X1300 повышенными частотами чипа и памяти. Во время проведения тестов будет осуществлена попытка сделать X1300Pro из тестируемой карточки путём разгона.

Теперь, собственно, о самой карточке.

Sapphire Radeon X1300 256Mb PCI-E
Интерфейс: PCI-Express x16

Частоты (чип/физическая по памяти (эффективная по памяти): 425/250 (500) MHz.

Ширина шины обмена с памятью: 128bit

Число вершинных конвейеров: 3

Число пиксельных конвейеров: 4

Размеры: 180x100x15mm (последняя величина — максимальная толщина видеокарты).

Цвет текстолита: темно-синий.

Выходные гнезда: DVI, D-Sub, S-Video.

VIVO: нет.

TV-out: интегрирован в GPU.

Sapphire Radeon X1300 256Mb PCI-E

Sapphire Radeon X1300 256Mb PCI-E имеет 256Mb памяти DDR2 SDRAM, размещённой в 8-ми микросхемах на лицевой и оборотной сторонах PCB.

Микросхемы памяти Infineon. Время выборки у микросхем памяти 2.8ns, что соответствует частоте работы 357 (714) МГц. Память же работает на частоте 250 (500) МГц.

Сравнение с эталонным дизайном, вид спереди
Sapphire Radeon X1300 256Mb PCI-E ATI RADEON X1300 PRO 256MB PCI-E
Сравнение с эталонным дизайном, вид сзади
Sapphire Radeon X1300 256Mb PCI-E ATI RADEON X1300 PRO 256MB PCI-E

Дизайн платы стандартный, он соответствует дизайну платы от самой ATI. Видно, что и на эталонной карте, и на тестируемой есть посадочное место под ATI RAGE Theater, но ни на одной из карт его нет. Также можно заметить некоторую разницу в используемых элементах, по всей видимости, стабилизатора питания, который находится в правом верхнем углу платы, если смотреть на неё спереди. На эталонной плате (X1300Pro) использовался один набор деталей, а часть посадочных мест пустовала, тогда как на тестируемой карте (X1300) детали распаяны иначе. Та же картина и на задней стороне карты в том же самом месте.

Теперь пару о слов о системе охлаждения.

Она представляет собой примитивный алюминиевый радиатор с игольчатым оребрением, покрывающий почти всю лицевую сторону карты.

Микросхемы памяти на лицевой стороне прижимаются к этому радиатору через термопрокладки (стоит заметить, что на представленном образце термопрокладки были установлены не совсем аккуратно, и часть чипов памяти прилегала к этим прокладкам не полностью — на фото выше можно увидеть, что след от микросхемы уходит за край прокладки). На оборотной стороне карты микросхемы памяти охлаждения лишены, хотя память даже на стандартных частотах нагревается довольно ощутимо. При сильной загрузке видеокарты палец не продержишь более 5 секунд. Да и радиатор без активного охлаждения тоже раскаляется, особенно в области видеочипа.

Теперь посмотрим, что же скрывается под радиатором.

X1800XT — RV515 изготовлен в конце сентября — начале октября этого года.

|

Sapphire Radeon X1300 256Mb PCI-E

В коробке можно найти руководство пользователя, диск с драйверами, PowerDVD 5, диск "Sapphire select", переходник DVI-to-D-Sub, переходник для вывода компонентного сигнала, переходник для вывода S-Video, переходник для вывода композитного видеосигнала. Довольно неплохой комплект.

Установка и драйверы

Конфигурация тестового стенда:

  • Компьютер на базе Athlon 64 (939Socket)
  • процессор AMD Athlon 3500+ (2250MHz) (L2=512K);
  • системная плата ASUS A8N-E Deluxe на чипсете NV > VSync отключен.

Синтетические тесты я не проводил, т.к. опыта проведения их у меня не было, да и время тестирования на них всё равно не хватало (карта была предоставлена на 2 недели, но мне, как студенту, ещё надо было учиться когда-то 🙂 ). Поэтому сразу перейдём к игровым тестам.

Производительность в игровых тестах

При тестировании были использованы две видеокарты: Radeon X1300 (RV515) и GeForce 6600LE (NV43). Т.к. NV43 мне попался удачный, то оказалось легко разблокировать «спрятанные» 4 конвеера и сделать из неё уже GeForce 6600.

Более того, я решил сравнить приблизительные КПД чипов при одинаковых частотах по памяти и чипу и одинаковом числе конвееров. Т.е., не включая дополнительные конвейеры, разогнать GeForce 6600LE до 425/500. И сравнить полученные скорости, чтобы понять, насколько отличается КПД прежней архитектуры от КПД новой, воплощенной ATI в серии X1000. Хотя бы приблизительно.

Итого одна видеокарта GeForce 6600LE будет присутствовать в тестах в трёх ролях: в роли, собственно GeForce 6600LE (4@300/500), в роли GeForce 6600LE (4@425/500), одинаковой по параметрам с X1300 (4@425/500), и в роли GeForce 6600 (8@300/500).

К слову, этот чудесный экземпляр позволял, кроме включения конвееров, ещё и очень сильно разогнать себя — до 560/650 (чип/память), но т.к. с разгоном X1300 не сложилось (чуть дальше частот X1300 Pro — и карта теряла стабильность), то сравнивать GeForce 6600 (8@560/650) было бы не с кем.

X1300 удалось разогнать только до частот X1300Pro, но использовать её в таком режиме без дополнительного охлаждения я бы не советовал. Для облегчения теплового режима работы разогнанной X1300 был установлен внешний обдув.

Результаты тестов: сравнение производительности

В качестве инструментария я использовал:

  • Half-Life2 (Valve/Sierra) — DirectX 9.0, demo (ixbt01, ixbt02, ixbt03 Тестирование проводилось при максимальном качестве).
  • DOOM III (id Software/Activision) — OpenGL, мультитекстурирование, настройки тестирования — Ultra High Quality, demo ixbt1 (33MB!).
  • 3DMark05 1.0.0 (FutureMark) — DirectX 9.0, мультитекстурирование.
  • F.E.A.R. (Monolith/Sierra) — DirectX 9.0, мультитекстурирование, настройки тестирования — maximum, Soft shadows.

Видеокарты, участвующие в этом тестировании относятся к Middle-End и, даже, к Low-End, что позволяет получать более-менее играбельные fps только в «легких» режимах 1024×768 и 1280×1024 (1280×960). При включении AA и AF скорости падали катастрофически, поэтому больший вес в сравнении карт имели тесты в «лёгких» режимах. Тестировать в разрешениях экрана выше 1280×1024 смысла никакого не было, т.к. видеокарты не топовые, поэтому даже на «лёгких» режимах вряд ли можно было ожидать упирания в процессор.

Игровые тесты, сильно нагружающие блоки вершинных шейдеров, блоки пиксельных шейдеров 2.0, активное мультитекстурирование.

В лёгком режиме X1300 опередил GeForce 6600LE и идёт почти наравне с своим «клоном по параметрам» от nVidia (разогнанный 6600LE), немного опережая последнего. До 6600 уже не дотянуться, хотя X1300 стоит дороже, чем 6600 (на момент написания статьи). Тут 4 «современных» конвеера не могут догнать 8 «старого образца».

X1300Pro в 1024×768 опережает 6600, а в 1280×960 всё сводится к паритету.

В тяжёлом режиме X1300 стабильно, но быстрее чем 6600LE и даже чем 6600LE на частотах 425/500 в 1280×960. X1300Pro держит примерный паритет с 6600, опережая обе версии 6600LE (что не удивительно при его цене, но могло быть и лучше).

Half-Life2: ixbt01 demo

X1300 выступил очень неплохо для своих технических возможностей (что не удивительно, если учесть, под какие карточки эта игра делалась), но оказался в проигрыше по ценам. Он вполне спокойно обошёл 6600LE в лёгком режиме и даже его разогнанную версию («новые» конвейеры оказались эффективнее). С 6600 держит шаткий паритет.

Со сглаживанием и фильтрацией преимущество X1300 над 6600LE резко сократилось, но осталось в силе, а вот «нормальный» 6600 уже ушёл вперёд со своими 8-ю конвейерами. Определённо, цену на X1300 надо опускать.

Впрочем, те же 4 «новых», но разогнанных, конвейера в лице X1300Pro вполне могут потягаться с 6600. И тут цена вполне адекватна. За X1300Pro выигрыш.

Half-Life2: ixbt02 demo

Почти всё то же самое, только при лёгких настройках X1300 уже опустился до паритета с разогнанной до 425/500 6600LE (но преимущество над нормальным 6600LE осталось) и проиграл 6600. X1300Pro всё ещё не на много опережает 6600.

А вот при AA и AF и X1300Pro, и даже простая X1300 смогла вырвать победу у всех видеокарт соперника (из того же ценового диапазона, разумеется). X1300 с очень внушительным отрывом ушёл от 6600, а уж 6600LE тем более уже оказался в проигрыше. Может быть, дело в объёме памяти на видеокартах: на 6600LE/6600 было установлено 128Мб, тогда как на X1300/X1300Pro — 256Мб.

Но вот цена новинок слишком высока для их производительности. Если цена на X1300 опустится до 90 у.е., а на X1300Pro до 100 у.е. тогда эти видеокарты будут хорошим выбором.

Half-Life2: ixbt03 demo

Этот тест ознаменовался очень хорошим выступлением видеокарт на канадских видеочипах. X1300 даже сравнялся с 6600, а уж 6600LE проиграл ей намного больше (60% в режиме 1024×768 без AA и AF). Даже 6600LE разогнанная до частот X1300 не смогла ничего сделать. «Новые» конвейеры показали свою мощь. X1300Pro вообще ушёл очень далеко вперёд, вполне оправдывая свою цену.

В режиме с AA и AF всё то же самое, только проценты преимущества немного уменьшились. Но победа осталась за X1300 и X1300Pro.

Игровые тесты, сильно нагружающие пиксельный конвейер текстурированием, активная работа стенсиль-буфера, блоков шейдеров.

DOOM III Ultra High mode

Появившиеся вроде надежды на оптимизацию обработки теней, связанные с улучшенным быстродействием новой архитектуры от ATI в других тестах, быстро развеялись после первых же результатов тестов. Всё-таки очень хорошо «точили» Doom3 под калифорнийские карточки.

Без AA/AF: полный провал новинок от ATI. Даже X1300Pro не смогла достать 6600LE с более низкими частотами и «старой» архитектурой.

С AA/AF: лишь X1300Pro смогла как-то соревноваться с 6600LE (в том числе и разогнанной) и 6600. X1300 полностью проиграла бой.

Синтетические тесты, сильно нагружающие шейдерные блоки.

Здесь всё очень радужно для видеокарт на чипах ATI.

Без AA/AF: X1300 почти догнал 6600, опередив 6600LE (даже в разогнанном варианте — возможно, в этом заслуга новой архитектуры… надо бы сравнить с предыдущей архитектурой ATI, но у меня в распоряжении не было таких карт). X1300Pro уверенно лидирует.

С AA/AF: X1300 особо не церемонясь спокойно обошёл 6600 (не говоря уж про 6600LE). Новая архитектура или отполированные до блеска драйвера? Хороший вопрос… Про X1300Pro уже всё сказано: свою цену по результатам этого теста она отрабатывает.

Хочу заметить, насколько на X1300 быстрее первый Game-тест проходил по сравнению с 6600. В сцене, где огромный бронированный робот расстреливает солдат у двери 6600 удавалось максимум показать 10 кадров/сек. X1300Pro же не напрягаясь выдавала все 17-18. И во втором тесте (по лесу летает зелёный огонёк) также соотношение в пользу X1300Pro: 5 и 8 кадров соответственно. Правда, при этом были отмечены проблемы с качеством картинки в первом тесте, о чём ниже.

Вопросы качества.

Во время тестирования были замечены две проблемы с качеством картинки.

    1) 3Dmark05, Game1:

Читайте также:  Geforce gtx 1060 серия продукта
Sapphire Radeon X1300 256Mb PCI-E GeForce 6600 128Mb PCI-E

Дым от упавшей цистерны на X1300 как будто терял цветовую разрядность и окрашивался в инородные цвета, тогда как на 6600 артефактов замечено не было.

    2) Need For Speed: Most Wanted:
Sapphire Radeon X1300 256Mb PCI-E GeForce 6600 128Mb PCI-E

Тоже проблемы с прорисовкой дыма. (Правда, в этой игре у всех видеокарт от ATI есть проблемы. Например, на предыдущих поколениях все тени при установке максимальной графики имели резкие, рваные края. На X1300 такого дефекта не было, хотя совсем гладкими тени не стали; на видеокартах GeForce (даже предыдущих поколений) тени отображаются плавными и без артефактов.) На GeForce 6600 дым вполне адекватный, в то время как на X1300 он имеет какую-то рваную структуру, идёт полосами.

Такие странности с отрисовкой в этой игре тем более странны, т.к. эта же игра вышла на X-Box 360, где как раз используется чип от ATI.

Выводы по производительности

ATI Radeon X1300 — скорее соперник 6600LE, чем 6600, т.к. 6600 часто оставляет новинку позади. Цена на данную карту момент написания статьи была примерно 120 долларов (цена взята с http://www.ultracomp.ru/). 6600LE же, хотя и проигрывал в большинстве тестов, стоит порядка 90 долларов, да и к тому же уже давно присутствует на рынке. Чтобы на новую карту на рынке обратили внимание она должна либо быть хотя бы немного быстрее конкурентов, либо стоить дешевле. Ни того, ни другого не намечается. Более того, в рознице эта карта была замечена по цене 150 долларов. ATI следует поумерить свои аппетиты, чтобы дать новинке занять своё место на рынке.

ATI Radeon X1300Pro — уже намного интереснее. Она чаще всего наравне соперничает с 6600, нередко выходит вперёд (HL2, 3Dmark05), но иногда и откатывается назад (Doom3). Если цена опустится хотя бы долларов на 20-30 то уже вполне можно подумывать о покупке данной карты, если выбирать из сектора Low-End. Пока же цена говорит не в пользу X1300Pro, хотя она и бывает быстрее, чем 6600.

Остаётся ждать полноценного выхода новинок на прилавки и постепенного понижения цен до приемлемых, при которых покупка этих карт становится оправданной.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

*

code