Sdscompany.ru

Компьютерный журнал
1 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Nvidia занижает производительность видеокарт

Теория заговора. Как разные версии драйверов влияют на производительность видеокарт NVIDIA

Оглавление

Подобные статьи не появляются на пустом месте. Должен быть повод. В этом году им стали анонс видеокарты GeForce GTX 960 и компьютерной игры «Ведьмак 3: Дикая охота». NVIDIA тесно сотрудничает со многими разработчиками. В итоге игры класса «ААА» обзаводятся рядом интересных (и не очень) технологий (конкретно в «Ведьмаке» — NVIDIA HairWorks), а также должным уровнем оптимизаций под современные модели графических адаптеров. Так получилось, что вышедшая GeForce GTX 960, продвигаемая «зелеными» как самый мейнстримовый мейнстрим, в «Ведьмаке» оказалась быстрее GeForce GTX 770. Как такое возможно, что «обрубок» на архитектуре Maxwell при заведомо более скромных характеристиках оставил позади некогда топовый 3D-ускоритель прошлого поколения? Объяснение нашлось сразу же. Тематические форумы заполонили слухи о том, что NVIDIA специально занижает производительность видеокарт прошлого поколения в угоду увеличения продаж своих новых устройств. Но так ли это на самом деле?

Тестирование различных версий драйверов NVIDIA

Шок — это по-нашему!

NVIDIA обвиняют в мошенничестве далеко не в первый раз. Реальный случай произошел в 2003 году, когда «зеленые» поссорились с Futuremark. В то время небольшая финская компания вела разработку графического бенчмарка 3DMark03 и требовала от ATI и NVIDIA денег за участие в бета-программе. Futuremark решила использовать в своем новом приложении пиксельные шейдеры DirectX 9. «Зеленых» такой расклад не устроил, ведь не были учтены некоторые особенности видеокарт серии GeForce FX 5000. В итоге появился драйвер под номером 42.68, который оптимизировал 3DMark03 под работу с графикой NVIDIA и позволял в общем зачете обходить решения ATI. В свою очередь, Futuremark на протяжении нескольких месяцев не признавал такие результаты действительными.

Многострадальная NVIDIA GeForce FX 5900 Ultra

Серия видеокарт GeForce FX оказалась одной из самых противоречивых в истории NVIDIA. Однако маркетологи компании не оставляли попыток навязать иное мнение потенциальным покупателям. Наглядным доказательством моих слов стал выпуск компьютерной игры Tomb Raider: Angel of Darkness, использующей пиксельные шейдеры версии 2.0. Каламбур заключался в том, что детище студии Eidos Interactive входило в состав программы NVIDIA: The Way It’s Meant To Be Played. То есть в теории целиком и полностью было заточено под работу с GeForce’ами. Первоначально игра включала в себя режим бенчмарка. Однако в трех тестах из четырех GeForceFX 5900 Ultra оказывалась медленнее Radeon 9800 Pro. NVIDIA надавила на Eidos Interactive, ведь приличная часть бюджетов на рекламу исходила именно от нее, и заставила студию выпустить специальный патч. В итоге бенчмарк был отключен, а разработчик Tomb Raider: Angel of Darkness заявил, что «производительность видеокарт NVIDIA в новой игре исключительно высока».

Скриншот из игры Tomb Raider: Angel of Darkness

Разговоры о том, что NVIDIA специально при помощи драйверов занижает производительность видеокарт прошлого поколения шли и в 2011 году, когда «зеленые» презентовали линейку GeForce GTX 500. А именно речь шла о противостоянии GeForce GTX 560 Ti и GeForce GTX 470, в котором бывший флагман уступил новоиспеченному Middle-end. Впрочем, большое количество независимых исследований опровергло эту теорию заговора.

Вот что из себя сегодня представляют флагманские видеокарты линейки GeForce GTX 400. С топом 2010 года стоимостью 500 долларов США на равных соперничает откровенный Low-End 2015-го года GeForce GTX 750 Ti ($150)

NVIDIA в этом году уже «поучаствовала» в одном крупном скандале. Компания абсолютно намеренно утаила реальные характеристики одного из топовых устройств 900-й серии видеокарты GeForce GTX 970. Оказалось, что графический процессор имеет не 64 блока ROP, как было заявлено производителем, но всего 56. Видеопамять устройства работает по схеме 3,5+0,5 Гбайт, в которой небольшой «клочок» GDDR5 функционирует на заведомо меньшей скорости, нежели основной блок. Кэш второго уровня урезан с 2 Мбайт до 1,75 Мбайт. Как видите, все тайное очень быстро становится явным.

Тестирование

К сожалению, под рукой у меня не оказалось GeForce GTX 960 и GeForce GTX 770. Ух, какая бы получилась заруба! Однако проверку драйверов «на вшивость» удалось совершить при помощи GeForce GTX 780 и GeForce GTX 970. Разница между выходом этих видеокарт в продажу составляет приблизительно полтора года. При этом «девятьсот семидесятая» на момент анонса стоила в два раза дешевле. Изначально видеокарты обладали приблизительно одинаковым уровнем производительности. Если «зеленые» нахимичили с драйверами, то это сразу же бросится в глаза.

Для эксперимента я взял несколько версий драйверов. Все — WHQL (Windows Hardware Quality Lab). «Дрова» подбирались таким образом, чтобы покрыть все временные рамки, а именно сразу три года: 2013-й, 2014-й и 2015-й соответственно. Тем не менее, акцент в тестировании делался на последние версии. Например, в списке присутствует драйвер под номером 353.06. NVIDIA выпустила его в день анонса GeForce GTX 980 Ti. Именно с ним связана появившаяся информация о том, что NVIDIA намеренно занижает производительность серии GeForce GTX 700. Подробный таймлайн приведен в таблице ниже.

Небольшое исследование производительности драйверов NVIDIA

Вступление

Многие задумывались на вопросом — как можно увеличить производительность компьютера, ничего не изменяя в аппаратной части? Хорошей прибавкой к производительности может послужить разгон, однако, не для всех он является доступным и не все хотят этим заниматься. Другой вариант — оптимизация работы операционной системы, что требует определенных знаний и понимания того, что нужно сделать. Но бывает, что и более простой вариант может принести дивиденды. Это замена драйверов на новые версии. Так ли это, мы проверим в небольшом исследовании (конкурсная работа).

Ранее многими энтузиастами выпускались специализированные (оптимизированные) версии драйверов, нацеленные на достижения максимальной производительности. В их основе, конечно же, лежали драйверы, выпускаемые основными производителями видеокарт: ATI и NVIDIA. Энтузиасты лишь меняли некоторые параметры с помощью твикеров реестра. В настоящее время подобные сборки потеряли былую популярность и пользователям ничего не остается, как надеяться на оптимизацию драйверов самими производителями.

Читать еще:  Видеокарта не грузится в играх

В данной статье проводится попытка оценить изменения в производительности драйверов NVIDIA разных версий для видеокарт семейства GeForce 8×00.

Платформа

Видеокарты

В качестве испытуемых использовались две видеокарты: Asus GeForce 8600 GT 256 Мб и Palit GeForce 8800 GT 512 Мб.

Первая из видеокарт — Asus GeForce 8600 GT 256 Мб DDR3 128-бит — это бюджетное решение, в основе которого лежит ядро G84, а оснащение включает всего 256 Мб видеопамяти, которой по сегодняшним меркам явно недостаточно. Но тем интереснее будет получить результат.

Аналогом её можно считать семейство видеокарт GeForce 9500 GT. Основные технические характеристики можно узнать из скриншота диагностической утилиты GPU-Z:

Видеокарта Palit GeForce 8800 GT 512 Мб DDR3 256-бит — более производительное решение, ядро G92 и 512 Мб видеопамяти. Современным аналогом является GeForce 9800 GT.

Основные технические характеристики отображены в показаниях утилиты GPU-Z :

Эти видеокарты появились в 2007 году, таким образом можно проанализировать производительность одних из ранних версий драйверов NVIDIA и посмотреть, насколько сильно они (драйверы) «отстали» от более новых версий.

Драйверы

В качестве точки отсчёта был выбран драйвер 175.16 WHQL — эта версия драйвера изначально поставлялась с видеокартой GeForce 8800 GT и датирована 13 мая 2008 года. Она также подходит и для видеокарты GeForce 8600GT.

Промежуточной точкой (спустя год) выбран драйвер 185.85 WHQL (6 мая 2009 года), в котором, согласно описанию, была добавлена поддержка новых видеокарт семейства GT200, введена поддержка CUDA 2.2 и улучшена производительность в некоторых играх под управлением операционной системы Windows XP, а так же автоматически устанавливается новая версия физического движка PhysX .

Последней доступной сертифицированной версией на момент подготовки статьи стал драйвер 196.21 WHQL (19 января 2010 года), в котором улучшена поддержка SLI систем в различных играх, обновлено ПО PhysX и исправлены ошибки.

Прочие оборудование и ПО

Конфигурация тестового стенда

  • центральный процессор: Intel Pentium DualCore E2160 @ 3000 МГц (9 x 333 МГц);
  • система охлаждения: боксовый кулер с медной вставкой, поставляемый со старшим семейством процессоров Core 2 Duo;
  • материнская плата: Asus P5L-MX (чипсет i945G, mATX);
  • оперативная память: Samsung DDR2-667 2×512 Мб;
  • жёсткий диск: 250 Гб WDC WD2500JS (IDE );
  • блок питания: PowerMan (InWin) 450 Вт;
  • монитор: LCD 19” Samsung 940N (1280×1024@75 Гц);
  • операционная система: Microsoft Windows XP Professional Service Pack 2 (x86);
  • DirectX 9.0с (август 2009 года).

Методика тестирования

После установки драйверов никакие оптимизации в их работу не вносились – настройки определяются приложением. Максимальное разрешение 19” LCD -монитора составляет 1280х1024, поэтому тестирование проходило только в этом разрешении Режим тестирования — Direct3D 9.

В качестве тестов использовались следующие приложения:

Во всех тестах, кроме 3DMark`06, использовались показатели значения FPS : минимальное (min), среднее (avg) и максимальное (max).

Количество прогонов каждого из тестов — 3, после чего результаты складывались, и высчитывалось среднее значение.

Результаты тестирования

3DMark`06

Прирост не превысил 3 % для видеокарты 8600 GT и наиболее заметен при переходе с драйверов версии 175.16 на 185.85. В случае 8800 GT прирост ещё меньше — 1 %, и можно считать его погрешностью измерений (сдерживающим фактором является процессор).

FurMark 1.70

Как видим, прирост производительности более заметен и составил в среднем 20 % по сравнению со старой версией драйверов — 175.16 . Более новые драйверы показывают абсолютно идентичный результат на разных видеокартах.

S.T.A.L.K.E.R.: Clear Sky

С видеокартой 8800 GT в тестах «Солнце» и «День» значения минимального и среднего FPS можно считать «стабильными».

В тесте «День» заметно как повышение, так и снижение производительности при переходе от одной версии драйвера к другой. В целом прирост составил 4 %.

В тесте «Ночь» и «Дождь» заметно снижение минимального и среднего FPS на

6 % соответственно, но при этом выросло значение максимального FPS на 16 % и 10,5 %.

World in Conflict: Soviet Assault

Far Cry 2

Заключение

Итак, даже из такого короткого обзора можно сделать некоторые выводы:

  1. Разработчики драйверов NVIDIA не сидят на месте и постоянно оптимизируют драйверы. Конечно, в некоторых конкретных случаях возможно падение производительности, но в целом новые драйверы показывают производительность выше старых.
  2. Для раскрытия потенциала видеокарты (и драйверов) нужен хороший процессор, т.к. в нашем случае производительность видеокарты с новыми версиями драйверов в некоторых играх сдерживал именно процессор.
  3. Темпы прироста производительности при переходе от одной версии драйвера к другой не так высоки и связано это по большей части к раскрытию всего потенциала «старых» видеокарт. Более заметный он может быть на новых видеокартах, т.к. в основном оптимизация драйверов осуществляется с привязкой к возможностям новых видеокарт.

В качестве общего вывода — стоит или нет менять драйверы, то, как уже многократно отмечалось в различных источниках (в том числе и на МИРе NVIDIA), заменять драйвера на более новые НУЖНО, особенно если сам разработчик отображает в описании драйвера, в каких приложениях повышена производительность!

Nvidia режет производительность в драйверах?

И так дорогие камрады, решил я проверить миф о том что компания Nvidia режет производительность в своих драйверах для видеокарт серии 600 и 700. В наличии я имею MSI 680 gtx lightning аж 2 штуки. На карточках присутствует небольшой разгон 1306 мгц по ядру в бусте и 7000 мгц по памяти, i7 4770k 4200 мгц и озу Kingston HyperX KHX2400C11D3/8GX х2 (16 гб).

Миф я решил проверить на игре Batman Arkham Knight.

Для начала настройки игры.

Сглаживание я выключил специально, так как по моим расчётам 960 gtx имея 128 бит шину псп показывает результат аналогичный 770 gtx и псп здесь вообще не критична. Напомню вам что что псп шина 770 gtx составляет 256 бит и если бы результат зависел от псп, естественно по логике 770 должна выйти вперёд, но этого не происходит.

Читать еще:  Обновление видеокарты nvidia geforce

Методика тестирования: Используется 1 карта 680 gtx, sli режим выключен, PhysX переведён на вторую карту в панели управления Nvidia.

Итак, результаты моих тестов.

Как видите карточка показывает играбельный фпс в этой игре.

Выпущенный в июле 2014 года должен показать что если производительность в версии 355.82 была искусственно уменьшена, то версия 340.52 должна давать больше фпс во время прогона бенчмарка в игре. На практике я столкнулся с тем что игра запустилась с артефактами в изображении, но бенчмарк всё равно прошёл. Результаты цифр удручают, на 4-3 кадра меньше, чем 355.82 и вы не сможете пройти игру.

Последний на текущий момент опубликования этого материала, показал полную идентичность драйверу 355.82 за исключением 1 кадра в максимальном режиме, что я причислил к погрешности самого бенчмарка.

Лучше не включать, так как по необъяснимым причинам фпс упал очень даже ощутимо.

К тому же в панели управления Nvidia драйвер автоматически ставит только 1 GPU. А при попытке поставить принудительно, я получил 15 фпс в бенчмарке. То есть если хотите поиграть в эту игру, sli режим нужно отключить полностью.

Для обладателей аналогичных карт по мощности среди лагеря Radeon. То есть если у вас старые видеокарты AMD и вы хотите поиграть в эту игру, вы сможете это сделать с относительным комфортом.

Вывод: Как видите всё таки небольшое улучшение архитектуры даёт о себе знать и 600-700 серию с 900 сравнивать 1 в 1 по производительности не совсем корректно. Ну и напоследок 960 gtx показывает лучший фпс благодаря архитектурным улучшениям и специальной оптимизации, а на 600 и 700 серию, компания положила большой и толстый болт. Ведь примени оптимизацию для этих карт, 960 попросту некому было бы продавать. Так что чистый маркетинг и ничего личного. Спасибо за ваше внимание.

Nvidia занижает производительность.

Я частенько люблю поиграть в War Thunder. У меня было 90фпс на высоких, в общем, всё хорошо. Но пока я не поставил новый драйвер Nvidia — 372.54. Фпс упал очень сильно: потолок — 16 (!) Фпс. Что я только не обвинял в падении производительности. Откатил драйвера. Фпс вернулся. Сейчас у меня 368.81 версия. Возможно я криворукий и что-то делаю не так, но на моём пк фпс после отката вырос.

Теперь для новичков скажу как откатить драйвер. (Win7), для остальных Windows ищите в гугле.

1. Нажимаем ПКМ на Мой Компьютер, свойства.

2. Диспетчер устройств в меню слева, далее жмём видеоадаптеры.

3. Выбираем свою видеокарту, далее — драйвер.

4. Жмём кнопку откатить.

Прошу меня извентть если тревога ложная. Может быть это только у меня так — Windows 7, Nvidia 550 ti.

Более того, в драйверах Nvidia эта фича встроена в расширенный режим установщика.

Все довольно просто объясняется — ti карточки разогнаны выше заводских частот, причем каждым производителем — palit, gigabyte или ещё кто — по-своему. С новой версией драйвера, например, изменяется например логика нагрузки на карту и привет, питания не хватает перегреваемся троттлим = low fps. У меня было такое в D3 но не с ti, а с ROG-картой от ASUS, fps падал до 5 даже в главном меню после установки какой-то на тот момент последней версии драйверов. Вышла следующая в которой всё стало хорошо.

На самом деле вполне вероятно! Не замеряю фпс, но все понят, как дрова их, пару месяцев назад, систему положили =) Косячить стали часто.

вангую до обновления игра работала в дх9, а после в дх 11

На мой взгляд у вас просто установки слетели, по производительности/качеству.

Так же вполне возможно, добавился игровой профиль, который не соответствует конфигурации вашего компьютера.

PS снижения производительности при новых драйверах никогда не замечал.

Советую настройки пересмотреть. А так же удалить нафиг, если встал, expiriense ихний. Вот он ппц тормозит 😀

Это у всех так. Причем эта проблема была замечена только на windows 7 и 8. Косяк Nvidia. Такое бывает иногда. В этих дровай есть какая новая технология BatteryBoost, возможно это можно исправить в настройках энергосбережения( или электропитания).

Такое со многими видюхами происходит при выходе новых. Я так ведьмака 3 проходил с лютым геморроем — я тогда учавствовал в тестовой программе microsoft и на ней нельзя отключить автообновления ПО и системы. И у меня каждый день обновлялись драйвера до июньских(год назад дело было), а я откатывал до апрельских, фпс очень существенно вырастал.

Тут основное не процессор или оперативка тогда, а материнская плата.

Видеокарта в мать если по размерам подойдёт — втыкайте и не парьтесь, ничо не сгорит и не испортится.

Может я параноик, но тоже заметил такое. gtx 970 после последних драйверов в Rise of the Tomb Raider стали заметны просадки fps. Опасносте!

не знаю что там кто занижает.

но макимальную производительность с точки зрения маркетинга должен показывать драйвер сопровождающий видеокарту на момент продажи.

Все остальные обновления должны побуждать приобретать новое железо )))

C 90 до 15 это не занижение производительности, а какой-то лютый слив. наверно это баг какой-то а не намеренная ошибка.

Но! Я не вижу причин почему бы производителям комп.железа не проталкивать бы свои новинки, в том числе и ухудшая работу старых моделей. Нет им веры.

С другой стороны у них на сайтах всегда есть архивные драйвера, можно скачать любой который выходил.

У Нвидии — да, с этим всё в порядке. А вот на сайте Радеона хрен найдёшь этот чертов архив. Я не смог, хотя я вроде себя умненьким считаю.

Не занижают, а оптимизируют. И в процессе оптимизации драйверов какие-то «преимущества» характерные для конкретной версии драйверов и конкретных железок теряются.

Оптимизации, вносимые в обновлениях как правило относятся к новым железкам, в то время как старые не могут поддерживать эти «новые фичи», от чего и теряется производительность.

Читать еще:  Онлайн тест видеокарты nvidia

Привыкайте 🙂 Последние лет 5 обновлять драйвера — добровольно превратить свою железку в, собственно, просто железку

Если работает со старыми дровами — лучше не трогать, ибо хуй знает чо эти кодеры там выкурили чтобы получить «+5% к приросту на бенче, дабы получить прибавку к зп». Такие дела.

Оптимизируют нвидия для новых железок сейчас в основном, а не для старых как-бы.

Ну и прежде чем ставить — почитайте релиз ноты которые идут с драйверами,

посмотрите про совместимость драйверов для видяхи вашей, поищите «родные драйвера».

Да это практика такая у пидорашек. Закладывать поломки которые или с обновой вылазят, или со временем.
например, однажды скайп обновился и перестал запускаться, с ошибкой о том, что нужно поставить sp3 на win xp. После этого я им пользоваться перестал =)

Компы на виндоус начинают тормозить через 3-5 лет после покупки. Причем, вне зависимости от количества установленного софта и частоты использования.

Так вы его пропылесосьте хотя бы один раз за эти 3-5 лет)

А ещё оптимизацию служб провести.

Была такая же фигня на моей 5 летней GTX, просел ФПС, причем воосновном в новых игрулях. Вылечил откатом .

Нвидия снижает производительность в новых драйверах

Рост производительности видеокарт NVIDIA между поколениями снизился с 70% до 30%.

Как сообщает портал DSOGaming, на канале AdoredTV появились любопытные видеоролики, проливающие свет на историю графических карт GeForce от NVIDIA.

В рамках этих роликов канал AdoredTV представил график, демонстрирующий изменения производительности видеокарт с выходом новых поколений. Как можно заметить, со временем прирост производительности между поколениями существенно снизился.

До 2010 года PC-игроки могли ожидать от нового поколения прирост производительности в 70% (за исключением NVIDIA GeForce 9800 GTX) по сравнению с предшествующими моделями. В некоторых случаях прирост составлял даже более 100%: двумя такими картами оказались NVIDIA GeForce 6800 Ultra и NVIDIA GeForce 8800 GTX.

После 2010 ситуация резко изменилась. Видеокарты NVIDIA больше не предоставляют значительного прироста производительности, который не превышает 50% (здесь счастливым исключением стала GTX 1080). В последние несколько лет средний показатель прироста составил около 30%.

Этому есть несколько объяснений. Во-первых, графическим картам AMD все еще не удается держаться на уровне NVIDIA. В отсутствие реальной конкуренции производитель GeForce может позволить себе снизить темпы технологического развития — а пользователи все равно купят новые платы.

Кроме того, NVIDIA в последние годы выпускает сразу несколько версий новых плат: «урезанные» варианты, сверхдорогие Titan-версии и полноценные топовые видеокарты Ti. Таким образом, NVIDIA постепенно увеличивает производительность, создавая впечатление, что каждая новая версия видеокарты заметно быстрее, чем предыдущая.

Гайд по оптимизации любой игры | Nvidia

05.05.2018 Militem 2 Comments

NVIDIA Inspector — это утилита, предназначенная в первую очередь для настройки видеокарты. Но в данном гайде мы научимся с помощью неё увеличивать FPS в любой игре. Конечно же, если у вас видеокарта от NVIDIA. К сожалению, для AMD ничего подобного нет и вам остаётся только страдать. Но не печальтесь, на многие игры у нас есть оптимизации, которые не завязаны на модели графического ускорителя. Смотреть — тут

1. Первым делом нужно непосредственно скачать данную утилиту. Актуальная версия — тут

2. Распаковав архив мы увидим два файлы — «nvidiaInspector.exe» и «nvidiaProfileInspector.exe»

3. Статья разбита на 2 части. Если вам не нужно описание программы и её возможностей, то сразу переходите ко второй части.

Часть 1. Открыв nvidiaInspector.exe мы увидим:

Главное окно программы где можно посмотреть всю информацию о своём графическом ускорителе. Дизайн очень схож с GPU-Z

Нажав кнопку «sensor monitoring» в левом верхнем углу программы. откроется окно с графиками нагрузки и информации по вашему графическому адаптеру. Кликнув правой кнопкой мыши по окну с графиками можно настроить отдельные параметры, которые будут выводиться в данном окне. И ещё данное окно может накладываться поверх любых окон и быть неплохим виджетом для мониторинга.

С помощью выше расположенной кнопки можно сделать автоматический скриншот главного окна и скачать его с фото-хостинга сайта Techpowerup.

Перейдём к более интересному и горячему. Нажав на кнопку расположенную в правом нижнем углу, а именно — ««Show Overclocking». Нам предстанет окно с помощью которого можно разогнать свой графический адаптер. Только делайте это на свой страх и риск. Хотя современные видеокарты почти невозможно сломать данным методом, т.к. в них предусмотрено множество средств защиты и в случае чего они сами сбрасывают все настройки и пускают ваш PC в ребут при особых случаях. Но мы вас предупредили.

Теперь когда мы с этим разобрались, то приступаем ко второй части.

Часть 2. Оптимизация игр.

Открываем файл — «nvidiaProfileInspector.exe».

Главное окно nvidia Profile Inspector

Не пугайтесь такого обильного количества непонятных параметров. В данном случае нас интересует строка выбора профилей в верхнем левом углу. Выбираем там любую нужную игру и приступаем к настройке параметров.

Примечание:

Если вашей игры в данном списке нет, то её стоит добавить нажав на кнопку — «Add Application to current profile».

И выбрать исполняемый файл игры. В данном случае — «FarCry5.exe».

Ну и на этом всё, вы почти великолепны. Теперь осталось выбрать параметры. Для подавляющего большинства игр оптимальными будут данные значения:

Примечание:

  • Чем выше значение LOD Bias тем хуже текстуры. LOD bias +3.0000 — максимальное значение.

После того как вы выставили все значения, которые отмечены красным не забудьте нажать кнопку — Apply changes, чтобы ваши значения сохранились.

Поздравляем, вы великолепны и только что научились пользоваться утилитой NVIDIA Inspector.

Но погодите убегать. Это ещё не всё. Порой для некоторых игр нужен уникальный подбор значений. И мы здесь будем делиться данной информацией, поехали:

Ссылка на основную публикацию
Adblock
detector