1. Главная страница » Компьютеры » Nvidia geforce 610m разгон

Nvidia geforce 610m разгон

Автор: | 16.12.2019

При покупке игрового ноутбука особое внимание стоит уделить выбору дискретного графического процессора – видеокарты. Этот чип целиком и полностью отвечает за обработку всех процессов, связанных с записью и воспроизведением графических данных. В 2011 году на рынок видеокарт вышла мобильная (ноутбучная) модель Nv >

Технические характеристики Geforce 610M

Geforce 610M разработана на архитектуре Fermi и технологическом процессе в 40 нанометров. Она относится к первой линейке дискретных видеокарт от Nvidia, способных поддерживать 11 версию DirectX.

1 Гб DDR3 памяти с частотой 1.6 ГГц обеспечивает комфортную работу с полным пакетом офисных приложений и нетребовательных игр, а 64-битный интерфейс GDDR3 позволяет создать пропускную способность до 14.4 Гб/сек.

Общие характеристики Nvidia Geforce 610M позволяют представить мощность видеокарты, однако, чтобы получить выводы, необходимо узнать результаты тестирования в играх.

Показатели видеокарты:

  • Шейдерные процессоры – 48.
  • Количество конвейеров CUDA – 48.
  • Ядро с частотой 672 МГц.
  • Частота при разгоне в режиме Boost – 900 МГц.
  • Потребление энергии – 12 Ватт.
  • Видеодекодеры – H.264, VC1, MPEG2 1080p.

Данный графический процессор поддерживает воспроизведение в Full HD и способен работать с библиотекой DirectX 12. Помимо стандартного декодирования Blu-Ray видеозаписей, карта способна передавать потоки Dolby True HD и DTS-HD без потери качества к Hi-Fi приемнику.

Обзор Geforce 610M

Geforce 610M относится к видеокартам среднего класса, поэтому рассчитывать на запредельную мощность и высокие настройки в играх-новинках не стоит, однако все продукты игровой индустрии вплоть до 2011 года будут выдавать около 40 кадров в секунду при средних настройках графики без фильтрации текстур.

Технология Nvidia Optimus автоматически переводит видеокарту в режим энергосбережения в то время, пока она неактивна, что позволяет сэкономить существенную часть заряда батареи ноутбука.

Разгон видеокарты позволяет несущественно увеличить ее производительность и немного повысить тактовую частоту ядра. В среднем подобные махинации прибавляют 5-15% к скорости обработки данных, но немного повышают температуру нагревания корпуса.

Во многих случаях разгон дает возможность пользователям играть с комфортом в игры, которые не «вытягивает» их карта. Несущественная прибавка FPS и более плавная картинка радуют глаз и улучшают общее впечатление от игрового процесса. Иногда посредством разгона более бюджетной видеокарты можно сэкономить средства и отказаться от покупки модели подороже.

Теперь давайте узнаем, как осуществить разгон Geforce 610M. Разгон видеокарты представляет собой изменение частот:

  • графического ядра;
  • памяти;
  • шейдерных блоков.

Для поддержания стабильной работы с новыми значениями необходимо слегка увеличить объем питания карты. Перед началом операций нужно узнать показатели видеокарты в обыкновенном состоянии. С этим поможет бесплатная программа GPU-Z, после установки и активации которой подробный список с информацией о видеокарте будет выводиться на экран.

Чтобы изменить эти показатели, придется скачать утилиту Nvidia Inspector. После запуска программы нажимаем кнопку «Show Overlocking» и поднимаем значения частот ядра (GPU Clock) до 900 мегагерц в появившемся разделе настроек видеокарты. Вместе с повышением частот ядра повышаются и частоты шейдеров.

Перед тем, как подтверждать внесенные изменения, лучше протестировать карту на предмет стабильности работы и обработки данных. Сделать это можно в любой видеоигре или в специальных программах (к примеру, FurMark).

Если заданная частота не слишком нагружает систему и устраивает вас, то следует вернуться в окно программы Nv >Какие игры пойдут на 610M

Тест в играх Nvidia geforce 610M показал, что эта карта способна поддерживать стабильные 40 кадров в секунду в таких популярных играх как Dota 2, Counter-Strike: Global Offensive и World of Tanks.

Более требовательные продукты, вроде TES V: Skyrim и Mafia 2, с трудом продемонстрируют даже 20 FPS на средних настройках, так как видеокарта рассчитана скорее на выполнение офисных операций, нежели на обработку текстур высокого разрешения.

GTA V на минимальных настройках будет работать в 30 FPS, а большинство старых игр, вплоть до 2009 года, на высоких показателях графики поддерживают стабильные 90-100 кадров.

Как скачать драйвера

Как и любая другая видеокарта, 610M не будет работать без драйверов. Скачать драйвера для Nvidia Geforce 610M можно с официального сайта компании. Кликабельный баннер для старта загрузки находится внизу страницы с описанием характеристик и возможностей этого графического процессора.

Читайте также:  Mini token что это

Драйвера подойдут не только для Windows 7, но и для новой операционной системы Windows 10. Чтобы установить пакет драйверов, необходимо следовать инструкциям официального инсталлятора.

Для Windows 7, 8.1, 8 и Vista

Для Windows 10

32-bit 64-bit

Размер файла:

400.00 МБ
Версия драйвера: 391.35 (WHQL) от 27.03.2018;
Язык: Русский
Операционная система: Windows 10 32/64-bit, Windows 7 32/64-bit, Windows 8.1 32/64-bit, Windows 8 32/64-bit, Windows Vista

На что способна Geforce 610M в современных играх: Видео

Из статьи читатель узнает об одном из простых, но эффективных способов разгона видеокарт серии GeForce от nV />Для разгона на компьютере необходимо установить несколько небольших бесплатных программ, ссылки на загрузку которых приведены в тексте статьи.

Разгон видеокарты и связанные с ним риски

Разгон видеокарты — это изменение некоторых штатных параметров ее работы, вследствие чего увеличивается ее производительность (в среднем на 5-20%). Во многих случаях разгон позволяет пользователю комфортно играть в компьютерные игры, которые на стандартных настройках его видеокарта не "вытягивает". Следовательно, благодаря разгону можно сэкономить денег, отложив или вообще отказавшись от приобретения более производительной видеокарты.

Но не все так просто, как кажется на первый взгляд. Есть у этого всего и обратная сторона. Дело в том, что видеокарта в разогнанном состоянии более подвержена вероятности выхода из строя. Приступая к разгону, вы должны четко осознавать, что своими действиями вы можете повредить аппаратную часть компьютера . Прибегать к разгону следует, если ради увеличения производительности видеокарты вы готовы рискнуть.

С другой стороны, если к разгону подойти с умом и не пытаться выжать из видеокарты слишком много, этот риск становится не значительным.

Необходимо учитывать, что при разгоне увеличивается мощность электроэнергии, потребляемая видеокартой. Перед разгоном желательно убедиться, что сила тока блока питания по линии +12В с запасом превышает потребности видеокарты. В противном случае блок питания может стать причиной нестабильной работы компьютера.

Об оценке соответствия блока питания требованиям компьютера читайте здесь.

В статье рассматривается один из способов разгона видеокарт серии GeForce. Чтобы сделать статью более наглядной, автор построил ее в форме описания разгона "подопытной" видеокарты GeForce GTS 450. Аналогичным образом можно разгонять любую карту от nV />Если у вас графический адаптер от ATI (Radeon), читать статью смысла нет.

Чтобы разогнать видеокарту пользователю нужно увеличить следующие параметры ее работы:

• частота графического ядра;

• частота шейдерных блоков.

Для обеспечения стабильности работы с новыми параметрами придется также немного повысить напряжение питания видеокарты.

Углубляться в описание указанных параметров не будем. Кому интересно — читайте о них здесь.

Разгон видеокарты GeForce

Перед началом разгона необходимо узнать показатели указанных выше параметров видеокарты в обычном состоянии. С этой целью можно использовать бесплатную утилиту GPU-Z.

После установки и запуска утилита GPU-Z покажет подробную информацию о видеокарте компьютера, в том числе и необходимые нам данные.

На изображении видно, что подопытная GeForce GTS 450 в штатном режиме имеет следующие параметры (обведены красным):

• частота графического ядра (GPU Clock) — 783 MHz;

• частота шейдерных блоков (Shader) — 1566 MHz;

• частота памяти видеокарты (Memory) — 902 MHz (1804).

Обратите также внимание на то, что с такими параметрами видеокарта GeForce GTS 450 демонстрирует следующую продуктивность (обведены зеленым):

• PixelFillrate — 6,3 GPixel/s

• TextureFillrate — 25,1 GTexel/s

• пропускная способность памяти (bandw />Для изменения указанных параметров будем использовать бесплатную программу nV />• nV >⇒ Подробнее о программе | скачать

Программа nV />После этого откроется панель разгона видеокарты (см. изображение).

Сначала поднимем значение частоты ядра (GPU Clock) и частоты шейдерных блоков (Shader Clock). Эти параметры взаимосвязаны. Поэтому повышение частоты шейдерных блоков автоматически повлечет за собой рост частоты графического ядра. Для повышения необходимо ползунок Shader Clock передвинуть вправо. Увеличивать частоту больше чем на 15% от исходной не рекомендую.

Если для нашей GeForce GTS 450 поднять Shader Clock на 15 % от исходных (1566 MHz), получится где-то около 1800 MHz. В случаях с другими видеокартами показатели, естественно, будут другими.

Увеличив Shader Clock можно увидеть, что вслед за ней увеличится и частота графического ядра. Для GeForce GTS 450 Shader Clock был увеличен до 1800 MHz, частота графического ядра автоматически поднялась до 900 MHz (см. скриншот). Чтобы изменения вступили в силу, необходимо нажать кнопку "Apply Clock&Voltage" .

Читайте также:  Obs в каком формате записывать видео

Перед тем, как переходить к повышению частоты памяти видеокарты, необходимо убедиться в стабильности ее работы с новыми параметрами ядра и шейдерных блоков. С этой целью видеокарту нужно протестировать на выполнении какой-то задачи, связанной с обработкой графических данных. Прекрасным тестом стабильности является бесплатная программа FurMark.

Для проверки видеокарты устанавливаем и запускаем FurMark. В окне программы жмем кнопку "BURN-IN test" и наблюдаем за картинкой ("вращающийся волосатый бублик", см. изображение). Если в течение продолжительного времени (не менее 10-15 мин.) на изображении не будет появляться никаких артефактов (мерцание, точки, мигание и другие признаки нестабильности), значит видеокарта с новыми параметрами работает нормально.

Кроме того, во время тестирования FurMark необходимо следить за температурой видеокарты . График температуры отображается в нижней части окна FurMark. Температура не должна превысить 90 градусов С.

Если появятся артефакты или температура станет слишком высокой, необходимо остановить тест (нажав кнопку Escape), немного снизить частоту видеоядра и шейдерных блоков (в программе nV >

Когда будет найдена оптимальная частота для ядра и шейдерных блоков, можно продолжить разгон видеокарты. Возвращаемся в окно программы nVidia Inspektor и таким же способом увеличиваем частоту памяти видеокарты (передвигаем вправо ползунок Memory Clock). После изменения параметров для вступления их в силу не забудьте нажать кнопку "Apply Clock&Voltage".

Стабильность работы видеокарты с разогнанной памятью также необходимо проверить при помощи теста FurMark. Если появятся артефакты, частоту памяти нужно снижать до достижения стабильности.

В случае с нашей подопытной GeForce GTS 450 частота памяти была увеличена на 15 % с 1804 MHz до 2075 MHz.

Определение максимальных рабочих частот для видеоядра, шейдерных блоков и памяти — это самый длительный и сложный этап разгона. После его завершения останется только немного поднять напряжение питания видеокарты чтобы обеспечить более высокую стабильность ее работы. С этой целью в окне программы nVidia Inspektor нужно немного (на 1 "шажок") сдвинуть вправо ползунок "Voltage". Для GeForce GTS 450 напряжение было увеличено с 1,075 V до 1,125 V. Для вступления изменений в силу не забываем нажать кнопку "Apply Clock&Voltage" (см. изображение выше).

Новые настройки видеокарты программа nV />Создадим такой файл для осуществленных нами настроек. Для этого в окне программы необходимо нажать кнопку "Creat Clocks Chortcut". Файл с настройками будет создан на рабочем столе компьютера.

Если вы хотите, чтобы ваша видеокарта автоматически разгонялась при включении компьютера , нужно добавить этот файл в папку с названием "Автозагрузка". Windows во время запуска открывает все файлы, находящиеся в этой папке, благодаря чему видеокарта будет автоматически разгоняться при включении компьютера.

В Windows XP, Vista, 7 папка "Автозагрузка" расположена в меню "Пуск". Нужно найти ее там, щелкнуть по ней правой кнопкой мышки и в появившемся меню выбрать "Открыть".

В Windows 8 и Windows 10 открыть папку "Автозагрузка" немного сложнее. Подробные рекомендации по этому вопросу расположены здесь.

Видеокарту также можно разогнать "навсегда" , то есть, сделать так, чтобы она постоянно работала на повышенных частотах графического ядра и видеопамяти без использования nVidia Inspektor или какой-то другой программы. С этой целью подходящие для нее повышенные частоты, которые были определены описанным выше способом, необходимо прошить в ее BIOS. Инструкция по перепрошивке BIOS видеокарты размещена здесь.

Проверка результатов разгона

Давайте сравним основные показатели разогнанной видеокарты с показателями без разгона.

До разгона подопытная GeForce GTS 450 демонстрировала следующую продуктивность (см. выше):

• PixelFillrate — 6,3 GPixel/s;

• TextureFillrate — 25,1 GTexel/s;

• пропускная способность памяти (bandwidth) — 57,7 GB/s.

После разгона были получены следующие результаты (см. скриншот):

• PixelFillrate — 7,2 GPixel/s ( прирост 14,2% );

• TextureFillrate — 28,8 GTexel/s ( прирост 14,7% )

• пропускная способность памяти (bandw >прирост 15,0% ).

Для проверки прироста продуктивности в условиях, приближенных к реальным, была также использована программа 3DMark11. Это один из наиболее популярных тестов производительности графических адаптеров.

В 3DMark11 без разгона GeForce GTS 450 показала результат 2272 бала , после разгона — 2573 бала.

То есть, прирост производительности видеокарты на практике составил 13,2 % (см. скриншоты).

Читайте также:  Nokia 1100 защитный код

После разгона видеокарты

После разгона температурный режим работы видеокарты существенно изменяется в сторону повышения, что может сказаться на состоянии охлаждения остальных устройств компьютера. Кроме видеокарты в системном блоке находятся другие "греющиеся" компоненты — центральный процессор, чипсет материнской платы и др. Поэтому после разгона хотя бы на первых порах желательно тщательно отслеживать температуру всех основных устройств компьютера .

Например, можно использовать бесплатную программу SpeedFan.

Если температура какого-нибудь устройства компьютера окажется слишком высокой, необходимо позаботиться об улучшении циркуляции воздуха в корпусе системного блока, установив дополнительные кулеры (вентиляторы) на вдув и (или) выдув.

Нужно также иметь ввиду, что повышенная температура компьютера или отдельных его устройств может быть вызвана выходом из строя или засорением пылью их системы охлаждения. Порядок устранения указанных проблем описан на нашем сайте в статье о чистке и смазке кулеров.

В мире компьютерных игр в 2018 году произошло событие, которое многие эксперты отнесли к разряду революционных. Речь идет о внедрении в игры трассировки лучей.

Трассировка лучей (англ. Ray Tracing) — это технология отрисовки трехмерной графики, симулирующая физическое поведение света. Используя ее, видеокарта в точности моделирует прохождения лучей от источников освещения и их взаимодействие с объектами. При этом, учитываются свойства поверхностей объектов, на основании чего вычисляются точки начала рассеивания, особенности отражения света, возникновения теней и многое другое.

По сути, это симуляция модели человеческого зрения, которая вплотную приближает компьютерную графику к кинематографическому уровню (см. примеры).

У каждой компьютерной игры есть определенные требования к внутренним устройствам компьютера (видеокарте, процессору объему оперативной памяти и др.). Если компьютер им не отвечает, насладиться игровым процессом вряд ли получится.

В этом каталоге можно подобрать игры с учетом как игровых предпочтений пользователя (жанр, сюжет, особенности геймплея и т.д.), так и быстродействия в них конкретного компьютерного "железа".

Онлайн-сервис сравнения характеристик видеокарт. Построен в виде сравнительной таблицы, в которую можно одновременно добавить неограниченное число графических карт, выбрав их из списка (доступно около 700 дискретных и интегрированных видеокарт nV />Сервис позволяет в удобной форме сравнивать производительность видеокарт в компьютеных играх, частоту графического процессора, тип, размер и ширину шины памяти, а также другие их характеристики.

Рейтинг быстродействия и характеристики десктопных и мобильных видеокарт NV />Есть фильтр, позволяющий отбирать видеокарты по названию модели, разработчику, типу (мобильные, десктопные, дискретные, интегрированные), году выхода, интерфейсу подключения к материнской плате, а также требованиям к блоку питания компьютера.

DirectX — это набор библиотек, входящих в операционную систему Windows, которые используются для создания трехмерной графики. Благодаря DirectX, разработка компьютерных игр стала значительно проще. По сути, DirectX сделал Windows единоличным лидером среди операционных систем для домашних игровых компьютеров.

DirectX, как и другое программное обеспечение, постоянно усовершенствуется. Появляются все новые и новые его версии. Если какая-то компьютерная игра была создана с использованием DirectX определенной версии, для ее полноценной работы необходимо, чтобы компьютер поддерживал эту же версию DirectX или более новую.

Поддержка компьютером той или иной версии DirectX зависит от установленной на нем Windows, а также от возможностей его видеокарты.

Из статьи читатель узнает о том, как получить информацию о видеокарте, даже если она не идентифицируется компьютером, ее драйвер установлен не правильно или отсутствует.

Узнать, какая на компьютере установлена видеокарта, можно несколькими способами. Порядок действий будет зависеть в первую очередь от того, установлен на компьютере драйвер видеокарты (первые два способа) или нет (третий способ).


ПОКАЗАТЬ ЕЩЕ

Описание

NVIDIA начала продажи GeForce 610M 6 декабря 2011. Это ноутбучная видеокарта на архитектуре Fermi и техпроцессе 40 нм, в первую очередь рассчитанная на офисное использование. На ней установлено 1 Гб памяти DDR3 на частоте 1.8 ГГц, и вкупе с 64-битным интерфейсом это создает пропускную способность .

С точки зрения совместимости это карта, подключаемая по интерфейсу PCIe 2.0 x16. Потребляемая мощность – 12 Вт.

Она обеспечивает слабую производительность в тестах и играх на уровне 0.03% от лидера, которым является NVIDIA GeForce GTX 1080 SLI (мобильная).

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *