Green-sell.info

Новые технологии
1 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Какая видеокарта нужна для монитора 2560×1440

Прощай, Full HD! Привет, 4K? Играем в современные игры на разных видеокартах в нестандартных форматах

⇡#Тестовый стенд и методика

Изначально знакомство со сверхширокими форматами планировалось провести при участии большого числа видеокарт. Для этого было собрано сразу несколько тестовых стендов. Перечень комплектующих указан в таблице ниже.

Видеокарты для тестирования мне предоставил компьютерный магазин «Регард». В этот раз получилось достать следующие модели:

Как видите, в сегодняшнем тестировании участвуют далеко не все актуальные на рынке видеокарты. Однако в этом обзоре я не ставлю целью расставить все имеющиеся в продаже устройства по своим местам — для этого мы проводим подробные тестирования каждой конкретной видеокарты, а также тестирования нескольких графических адаптеров в популярных современных играх. Именно поэтому я допускаю сравнение устройств. Так, производительность GeForce GTX 1060 вполне сопоставима с быстродействием таких видеокарт, как Radeon RX 570/580/590, а GeForce RTX 2080 — с GeForce GTX 1080 Ti. Рекомендации по выбору видеокарт на основании полученных результатов будут представлены в конце материала.

Ниже в таблице приведен список игр и настроек. Тестирование проводилось в трех разрешениях: 2560 × 1080 (соотношение 21:9) — наиболее распространенный формат; 3840 × 1080 (32:9) и 3840 × 1200 (32:10) точек соответственно.

Производительность в играх определялась с помощью хорошо известной программы FRAPS. Она позволяет получить время рендеринга каждого кадра. Затем при помощи утилиты FRAFS Bench Viewer рассчитывался не только средний FPS, но и 99-й процентиль. Использование 99-го процентиля вместо показателей минимального количества кадров в секунду обусловлено стремлением очистить результаты от случайных всплесков производительности, которые были спровоцированы не связанными напрямую с работой основных компонентов платформы причинами.

Первое, на что стоит обратить внимание, — разница в производительности между разрешениями. Совершенно логично, что сильнее всего нагружает систему разрешение 4K (Ultra HD) — как правило, именно в нем мы проводим тестирование видеокарт High-end-класса. Для этого небольшого эксперимента использовалась модель Palit GeForce RTX 2080 Ti GamingPro OC и 8-ядерный центральный процессор Core i9-9900K.

Если мы сравним разрешение Double WUXGA (3840 × 1200) с Ultra HD (3840 × 2160), то увидим, что в последнем случае нагрузка на тестовую систему оказывается значительно выше — в среднем на 32 %. На мой взгляд, разница достаточно ощутима. Получается, при использовании одной и той же видеокарты в стенде вы гарантированно получите на треть FPS больше, используя монитор с разрешением 3840 × 1200, а не дисплей с разрешением 3840 × 2160 пикселей. Следовательно, порог вхождения при использовании сверхширокоформатных устройств вывода изображения оказывается заметно ниже. Естественно, разница в FPS между такими разрешениями, как 2560 × 1080, 3840 × 1080 и 3840 × 2160, оказывается еще больше. Формат UWFHD в плане быстродействия оказывается схож с Full HD и нагружает графический адаптер в среднем на 12 % больше. В случае с GeForce RTX 2080 Ti, конечно же, наблюдается процессорозависимость. В разрешении 2560 × 1080 этот эффект, безусловно, выражен сильнее, чем в 2560 × 1440.

Собственно говоря, именно эти результаты подтолкнули меня провести мини-эксперимент на процессорозависимость в большем разрешении — 3840 × 1080 точек с использованием все той же GeForce RTX 2080 Ti. К сожалению, у меня под рукой не было процессоров Ryzen 5 2600X и Ryzen 7 2700X, но имеющиеся модели Ryzen 5 1600 и Ryzen 7 1700 способны стабильно работать в играх на частоте 4 ГГц. Во всех случаях использовался комплект оперативной памяти DDR4-3200 (на материнской плате ASRock X370 Taichi набор G.Skill Trident Z F4-3200C14D-32GTZ нужно еще постараться «завести» на такой эффективной частоте, но это, как говорится, совершенно другая история).

Мы видим, что в разрешении 3840 × 1080 системы с 6- и 8-ядерными чипами AMD и Intel проявляют себя довольно ровно в весьма процессорозависимых играх. Заметная разница между Ryzen и Core наблюдается только в GTA V, но всем давно известно, что детище Rockstar всегда лучше работает на железе Intel и NVIDIA. Тем не менее комфортный FPS в этой игре наблюдается во всех шести случаях. Очевидно, что при использовании менее производительной видеокарты эффект процессорозависимости снизится еще. А потому если вы задумали собрать новый системный блок и к нему прикупить сверхширокоформатный монитор (такой как Samsung C43J890DKI или Samsung C49J890DKI), то смело можете ориентироваться как на платформу AM4, так и на LGA1151-v2.

Примечание: При использовании мониторов Samsung не получилось в игре World of Tanks выставить UWFHD-разрешение — даже после создания такого разрешения вручную в меню драйвера AMD

А теперь перейдем к тестированию видеокарт. Я специально отделил графики с «Докой» «Дотой» и «Танками». Компания Samsung позиционирует свою продукцию как решения для геймеров. Модели C43J890DKI и C49J890DKI имеют частоту развертки 120 и 144 Гц соответственно. На примере Dota 2 и WoT 1.0 (а в этих играх, бесспорно, высокий FPS точно не будет лишним) мы видим, что стабильные 120 кадров в секунду (в «Доте» — с натяжкой) обеспечивает только GeForce RTX 2080 Ti при заданных мной настройках качества графики — это к вопросу о том, что киберспортивным играм не нужна мощная графика и производительный центральный процессор. В той же Dota 2 мы видим, что FPS уперся именно в возможности Core i9-9900K — наверное, самого быстрого игрового ЦП на сегодняшний день.

Тем же, кто не видит разницы между 120/144 и 60 Гц, даже для разрешения 3840 × 1200 пикселей будет вполне достаточно видеокарты уровня GeForce GTX 1070. Условно играбельный FPS (с просадками не ниже 25 кадров секунду) в популярных сетевых играх демонстрирует и GeForce GTX 1050 Ti, что не может не радовать.

В так называемых ААА-проектах ситуация обстоит несколько иначе. Я специально в ряде игр не активировал «тяжеловесные» режимы сглаживания, так как в тестировании участвуют видеокарты с практически 10-кратной разницей в цене. Но даже в таких условиях у нас точно «отваливается» GeForce GTX 1050 Ti — этот ускоритель не обеспечивает комфортной картинки даже в разрешении UWFHD. К сожалению, в двух играх из восьми оказывается несостоятельной и GeForce GTX 1060 — самая популярная видеокарта по статистике игрового приложения Steam. Но в целом ее (следовательно, и аналоги со схожей производительностью) можно смело использовать в разрешении 2560 × 1080 точек.

Как я уже отмечал выше, разрешения 3840 × 1200 и 3840 × 1080 заметно меньше нагружают графический адаптер, чем Ultra HD. Для игр в такой «среде обитания» вполне достаточно иметь графический адаптер уровня GeForce GTX 1070 или Radeon RX Vega 56.

GeForce GTX 1060 и GeForce GTX 1050 Ti также были протестированы с использованием режима качества графики «Высокое» в тех играх, где наблюдались просадки фреймрейта ниже 25 кадров в секунду. Снижение нагрузки помогло первой модели — в Shadow of the Tomb Raider и Watch_Dogs 2 я получил заветные 25+ FPS. А вот GeForce GTX 1050 Ti не поможет снижение качества графики даже до параметра «Средние». Играть же на «минималках» вместе с такими мониторами, как Samsung C43J890DKI и C49J890DKI, — так себе удовольствие. В общем, удел GeForce GTX 1050 Ti — это в лучшем случае разрешение Full HD.

Играть в сверхшироком разрешении очень даже интересно. Даже любимые проекты, которые ты, казалось бы, знаешь от корки до корки, заметно преображаются при использовании таких форматов, как 21:9, 32:9 и 32:10. Согласен, большинство игр оптимизированы под такие разрешения не полностью — много где меню и cut-сцены будут отображаться в стандартном формате 16:9 с черными полосами по бокам. Некоторые игры вовсе не поддерживают сверхширокие форматы, другие проекты приходится «допиливать» самостоятельно. Однако в остальном (а это, по моим прикидкам, 95 % игрового времени) картинка только завораживает. Если вы — фанат гоночных симуляторов, стратегий и игр с открытым миром, то сверхширокий формат наверняка вам придется по вкусу.

При этом сегодня мы выяснили, что такие разрешения, как 3840 × 1200 и 3840 × 1080, заметно меньше нагружают игровой ПК в сравнении с 3840 × 2160. В среднем разница составляет 30 %. Поэтому даже для игр на максимальных настройках нет необходимости гнаться за покупкой очень производительной видеокарты уровня GeForce GTX 1080 Ti, GeForce RTX 2080 и GeForce RTX 2080 Ti. Для этих разрешений при использовании максимального или близкого к нему качества графики достаточно видеокарты уровня GeForce GTX 1070 или Radeon RX Vega 56. Графические ускорители среднего класса — GeForce GTX 1060 и Radeon RX 570/580/590 — в 3840 × 1200, 3840 × 1080 и тем более 2560 × 1080 тоже способны выдать играбельный FPS на «максималках», но в ряде случаев заметно комфортнее будет играть с применением параметра качества графики «Высокое». К сожалению, если речь идет о проектах класса «ААА», то «за бортом» остаются видеокарты с производительностью GeForce GTX 1050 Ti и ниже. С такими адаптерами лучше играть в разрешении Full HD с использованием высокого и среднего качества графики.

Читать еще:  Как сменить драйвер видеокарты

Выражаем благодарность российскому представительству компании Samsung и компьютерному магазину «Регард» за предоставленное для тестирования оборудование.

Лучшая игровая видеокарта в разрешении 1440p

Большинство пользователей играют на мониторах с разрешением Full HD. Некоторые игроки мечтают о разрешении 4K, что значительно увеличивает требования к характеристикам PC. Многие забывают о разрешении 1440p (2560 x 1440 пикселей). Это отличный компромисс, который обеспечивает огромный качественный скачок по Full HD с гораздо меньшей потребностью в аппаратных ресурсах. Следует помнить, что разрешение 4K имеет в четыре раза больше пикселей, чем обычно используемый Full HD. Это означает, что графическим картам предстоит гораздо больше использовать гораздо больше мощности.

Выбрать лучшую видеокарту для игр с разрешением 1440p, к сожалению немного сложно. Существует все больше и больше типов мониторов с более высоким разрешением, чем Full HD, с высокой частотой обновления. Цены также падают, а это означает, что все больше людей предпочитают покупать 1440p или даже 4K мониторы. Однако вы должны помнить специфику конфигурации вашего оборудования при покупке новой видеокарты. В видео ниже мы объясняем, что именно нужно искать.

Лучшая видеокарта 1440p – AMD Radeon RX 5700

На данный момент лучшая видеокарта для воспроизведения с разрешением 2560 x 1440 пикселей и постоянными 60 кадрами в секунду – это Radeon RX 5700. В настоящее время эталонные конструкции в основном доступны на рынке. Цены начинаются от 26 тысяч рублей. В ближайшие недели должно быть много нереферентных проектов с еще более высокой производительностью и измененной системой охлаждения.

У Radeon RX 5700 нет проблем с генерацией 60 кадров в секунду с разрешением 1440p при воспроизведении новейших ресурсоемких игр. На рынке доступно всего несколько продуктов, таких как Ghost Recon Wildlands, которые очень требовательны и могут стать проблемой для многих новых графических систем, но и RX 5700 справится с этим. Понижение качества со Ultra до High решит проблему с временным падением кадров.

AMD оснастила карту 8 ГБ очень быстрой памяти GDDR6. Этой конфигурации должно хватить на следующие несколько лет.

RX 5700 – первый графический процессор, построенный по 7 нм технологическому процессу и использующий архитектуру RDNA. Это значительный скачок по сравнению с предыдущими конструкциями, что позволило добиться удивительной энергоэффективности. В настоящее время AMD производит больше энергосберегающих карт, чем NVIDIA, которые хвалят годами.

Кроме того, игры которые когда-то предпочитали архитектуру NVIDIA, теперь работают на Radeon RX 5700 намного лучше. Графический процессор также поддерживает новейший интерфейс PCIe 4.0. Это решение можно использовать вместе с процессором AMD Ryzen 3000 и материнской платой X570, но преимущества будут более очевидными при создании контента, чем при игре.

Пользовательские версии RX 5700, которые медленно появляются на полках магазинов, предлагают дополнительные возможности. Например, карта Sapphire имеет гораздо более эффективное охлаждение и лучший корпус. Эта система также была подвергнута заводскому разгону. Карта также имеет переключатель, который позволяет контролировать систему охлаждения.

Лучшая видеокарта 1440p – другие варианты

Radeon RX 5700 может быть лучшей видеокартой для воспроизведения с разрешением 1440p, но это не единственный вариант.

На рынке также имеются более дешевые и менее эффективные чипы NVIDIA GTX 1660 и GTX 1660 Ti, которые также позволят обеспечить плавную игру в 1440p. Вам придется смириться с чуть более низким качеством и меньшим количеством деталей, но в целом все будет выглядеть лучше, чем в Full HD.

У обеих карт есть еще один недостаток. Производитель решил использовать только 6 ГБ встроенной памяти. Она идеально подходит для игр с разрешением Full HD, но ограниченный буфер памяти можно увидеть во время игры в 1440p. Решение состоит в том, чтобы снизить качество текстур и других требовательных к памяти параметров.

Следующий вариант – GeForce RTX 2060. Это карта, которая по цене очень похожа на Radeon RX 5700. Именно поэтому мы не можем ее рекомендовать. Карта AMD быстрее и имеет лучшую конфигурацию памяти, чем у конкурентов NVIDIA. Однако есть одна вещь, для которой некоторые пользователи будут рассматривать выбор RTX вместо RX. Речь идет о трассировке лучей в реальном времени, которая в настоящее время поддерживается только графическими картами серии NVIDIA RX 20.

В конце концов, мы не рекомендуем покупать карту RXT 2060, потому что она слишком слабая, чтобы использовать все возможности трассировки лучей.

Для всех игроков, которые серьезно относятся к трассировке лучей в режиме реального времени, мы рекомендуем немного более дорогой чип RTX 2060 Super. Эта карта лишь немного быстрее, чем Radeon RX 5700, но она хорошо справляется с трассировкой лучей. Следует помнить, что на данный момент на рынке есть несколько игр, поддерживающих эту технологию. В будущем вы можете поиграть с этой технологией в Cyberpunk 2077 и Doom Eternal, используя трассировку лучей.

По более высокой цене мы рекомендуем Radeon RX 5700 XT, который является прямым конкурентом RTX 2060 Super. В большинстве приложений он примерно на 10 процентов эффективнее чипа NVIDIA, но все зависит от конкретного сценария использования. RX 5700 XT не поддерживает трассировку лучей, но его производительность сопоставима с возможностями RTX 2070 и RTX 2070 Super.

Radeon RX 5700 XT станет отличным вариантом для всех игроков, которые хотят использовать разрешение 1440p при 120 Гц или 144 Гц.

RTX 2070 Super стоит на вершине иерархии. Это, несомненно, самая эффективная игральная карта в разрешении 1440p, но ее рентабельность очень мала.

Вы также можете купить еще более дорогую RTX 2080, но это видеокарта, полный потенциал которой можно использовать только при игре в разрешении 4K. Это также будет хорошим вариантом для владельцев сверхшироких мониторов с разрешением 3440 x 1440 пикселей.

Как я могу проверить частоту обновления экрана?

В статье мы часто упоминали частоту обновления монитора. Чем быстрее обновление, тем более эффективная видеокарта у вас должна быть.

Чтобы проверить частоту обновления, подключенную к монитору компьютера или встроенному в ноутбук монитору, перейдите в Настройки (Пуск> Настройки) и выберите вкладку Система> Дисплей. Прокрутив меню вниз, выберите Дополнительные настройки дисплея. Появится окно с подробной информацией о дисплее. Среди этого будет частота обновления в Гц. Если подключено несколько мониторов, вы можете переключаться между ними.

Некоторые мониторы могут работать с разной частотой обновления в зависимости от настроек. В этом случае перейдите в настройки вашей видеокарты в Windows. Способ изменения частоты зависит от типа используемого вами графического процессора. Подробная информация доступна онлайн. Кроме того, вы можете проверить настройки монитора. Некоторые модели имеют возможность регулировать тактовую частоту непосредственно с монитора.

Стоит ли брать монитор с разрешением 2560×1440

Разрешение монитора ПК характеризует его размеры в пикселях. Увеличенные показатели дают более точное и качественное изображение. Большое разрешение позволяет проводить графическую работу, использовать профессиональные программы для обработки мультимедийных файлов (фото, видео). Характеристика в 2560*1440 пикселей является достаточной для многих программ и сервисов.

Технические характеристики

При разрешении в 2560*1440 пикселей, пропорции соотношения сторон монитора составляют 16:9, размер изображения ­- 3,68 Мпикс.

Монитор ПК представляет собой матрицу с множеством точек (пикселей). Их количество определяет фактическое разрешение экрана. Чем выше показатель, тем качественнее изображение, насыщеннее цвета, шире палитра оттенков.

На данный момент, разрешение в 2560*1440 пикселей позволяет работать в графических редакторах, тестировать компьютерные игры с мощной графикой.

Преимущества большого разрешения монитора

  • Четкость изображения. Широкие экраны передают более качественное изображение, по сравнению со стандартными аналогами. Отсутствуют пиксельные переходы, «лесенки» и неровности.
  • Работоспособность. Работа с текстовыми и графическими файлами становится более приятной. Использование профессиональных инструментов и устройств повышает практические способности компьютерного специалиста. Когда трудовой процесс проходит с комфортом, повышается продуктивность работы.
  • Здоровье глаз. При регулярной работе за компьютером, глаза сильно напрягаются. Человек моргает гораздо реже перед экраном, чем в обыденной жизни. Это приводит к нагрузке, возникновению болезней, ухудшению и потере зрения (хотя вред от компьютерных экранов не доказан, не смотря на заверения некоторых специалистов). Когда изображение более качественное, цвета распределены равномерно, отсутствуют резкие переходы, глаза меньше устают от длительного труда.
  • Просмотр изображений. Характеристика в 2560*1440 пикселей особенно полезна в работе фотографа. Чтобы оценить все детали изображения, профессионалы увеличивают размеры фотографий с помощью графических программ. Такая манипуляция позволяет оценить отдельный участок картинки, но все полотно целиком. Чтобы цельное изображение выглядело приемлемо, придется несколько раз увеличивать и уменьшать размеры. При наличии высокого разрешения, это не потребуется. Изображение четко видно на экране в полном размере. Точность и насыщенность цветов позволяют редактировать фотографии гораздо быстрее.
  • Место на рабочем столе. Рабочий стол – это главная страница функционирующего ПК. Пользователь самостоятельно распределяет необходимые ему программы, настраивает изображение, расположение файлов и яркость. Увеличенное разрешение предоставляет больше места на рабочем столе. Это необходимо профессиональным программистам и специалистам в компьютерной сфере, которые работают с множеством программ и сервисов.
  • Компьютерные игры. Игровая индустрия сейчас активно развита, разработчики предлагают детализированную и реалистичную графику. Чтобы процесс прохождения прошел без сбоев, лучше приобрести мощные комплектующие. Монитор с разрешением 2560х1440 пикселей позволяет наслаждаться игровым процессом без перебоев.
Читать еще:  Как открыть видеокарту nvidia

Недостатки широких экранов

  • Наличие мощной видеокарты. Чтобы изображение было качественным, придется поменять видеоадаптер, если его производительности недостаточно. Стандартные модели не справятся с такой нагрузкой, на экране будут помехи и сбои в изображении. Данный нюанс учитывается при выборе комплектующих, так как замена элемента сказывается на работе других устройств.
  • Стоимость. Все приборы с улучшенными техническими характеристиками стоят дороже стандартных аналогов. Из-за высокой стоимости, расширенные мониторы для ПК не пользуются популярностью в массовой компьютерной индустрии. Владельцы широких экранов довольны приобретением и не жалеют потраченных денег.
  • Поиск контента. Если фото- или видеофайлы не предназначены для разрешения в 2560*1440 пикселей, наличие данной технической характеристики будет бесполезным. Изображение выводится в стандартных размерах, не во весь экран. Широкие мониторы производятся для работы на ПК и для просмотра телевидения. Однако найти подходящий контент проблематично, так как технология появилась недавно. Данный недостаток решится спустя неопределенное время, когда широкое разрешение войдет в быт большинства пользователей.
  • Сложное производство. Технология находится на стадии развития, из-за чего многие модели не отвечают стандартам качества. Чем больше разрешение экрана, тем сложнее его производство, и тем сильнее он подвержен поломке. Найти качественную модель сложно. За мощное устройство придется заплатить большую денежную сумму.
  • Оптимизация программного обеспечения. Windows 8 и 10 оптимизированы под устройства высокого разрешения. Однако, до сих пор 7 версия ОС остается самой популярной, не смотря на то, что доступ к ней закроют в скором времени. Windows 7 не адаптирована под размеры 2560*1440 пикселей. Масштабирование осуществляется вручную, однако система работает плохо. Шрифты меняют размер, выпадающие тексты и контекстное меню появляются с опозданием. Самая главная проблема — работа с программами. Многие из сервисов не оптимизированы под мощные характеристики.

Стоит ли устанавливать монитор с разрешением 2560*1440?

Данная технология подходит для следующих типов работы на ПК:

  1. Редактирование графических файлов.
  2. Создание и тестирование компьютерных игр.
  3. Написание сложных программ.

Для обывателя широкий экран не нужен. Подобное приобретение будет лишней тратой денег. Если эксплуатация ПК не связана с графическими процессами, мощная технология не требуется.

Перед покупкой, необходимо оценить состояние всей системы, чтобы подключение нового устройства прошло без проблем. Особое внимание уделяется производительности видеокарты и оптимизации ОС.

Лучшие видеокарты 1440р (2020): Играем в 1440р

Выходите за рамки 1080р с этими потрясающими видеокартами.

Приобретение видеокарты может показаться непростой задачей, особенно если вы ищите нечто мощное для игр в разрешении 1440р. В то время как большинство мониторов ограничены 1080р, а многие игры предлагаются уже в разрешении 4К, 1440р предлагает нечто среднее, обещая улучшение качества изображения относительно стандартных 1080р, но оставаясь менее требовательными к производительности и, следовательно, цене видеокарты.

Так как выбрать лучшую видеокарту 1440р может быть сложно, мы сделали всю работу за вас. Мы отобрали несколько вариантов, вам же останется только решить, что именно важно для вас, прежде чем закончить комплектацию домашнего ПК. Без лишних слов, посмотрите наш рейтинг и познакомьтесь с лучшими видеокартами 1440р 2020 года.

1 | NVIDIA GEFORCE RTX 2070 SUPER

Лучшая видеокарта 1440р для большинства людей.

Вычислительные блоки: 2560 | Базовые частоты: 1605 МГц | Видеопамять: 8 Гб GDDR6 | Частота памяти: 14 Гбит/с | Разъемы питания: 6-контактный + 8-контактный | Выходы: х1 DisplayPort, x1 HDMI, x1 DVI-DL.

  • Плюсы: Производительность трассировки | Средняя цена;
  • Минусы: Тяжело работает в разрешении 4К;

Nvidia GeForce RTX 2070 Super – лучшая видеокарта 1440р, доступная сегодня для большинства пользователей. За 500$ (32500р + НДС) вы получаете приблизительную производительность GTX 1080 Ti, но с дополнительной трассировкой лучей. Для большинства игроков эта видеокарта обеспечивает правильный баланс между ценой и производительностью. Это может быть не так перспективно, как предложение RTX 2080 Super, но для большинства пользователей экономия сделает видеокарту более привлекательной.

Если вы хотите играть в игры с разрешением / скоростью 1440р / 60 FPS, RTX 2070 Super – идеальная видеокарта для покупки. С этой видеокартой вы сможете настроить свои игры в качестве «Ультра», сохранив плавный игровой процесс. Отсутствие компромиссов, пока речь идет о разрешении 1440р, заставляет видеокарту стоить дополнительных 150$ в сравнении с RTX 2060 Super или Radeon 5700 XT.

2 | NVIDIA GEFORCE RTX 2060 SUPER

Super-хорошая видеокарта для начала игры в 1440р.

Вычислительные блоки: 2176 | Базовые частоты: 1470 МГц (до 1650 МГц) | Видеопамять: 8 Гб GDDR6 | Частота памяти: 4480 МГц | Разъемы питания: х1 8-контактный | Выходы: х3 DisplayPort 1.4, x1 HDMI 2.0.

  • Плюсы: Производительность к цене | Трассировка и DLSS;
  • Минусы: Низкий потенциал в будущем;

GeForce RTX 2060 Super предлагает производительность, которая эквивалентна оригинальной RTX 2070, стоимостью в пределах 399$ (26000р + НДС). 2060 Super, возможно, не сможет конкурировать со своими старшими братьями, когда речь заходит о трассировке лучей, но она удивительно универсальная в играх с разрешением 1440р.

Если вы переживаете только о скорости в 60 FPS за играми в разрешении 1440р, нет причин платить за видеокарту, которая будет мощнее RTX 2060 Super. Данная видеокарта справится с 95% компьютерных игр в качестве «Ультра». Если вы хотите играть со скоростью обновления 120 Гц (120 FPS), 144 Гц или выше, тогда, вероятно, вам потребуется более дорогостоящая видеокарта, но в комбинации 1440р / 60 FPS вы не сможете превзойти отношение цены к производительности RTX 2060 Super.

3 | AMD RADEON RX 5700 XT

AMD способна доминировать в разрешении 1440р.

Вычислительные блоки: 2560 | Базовые частоты: 1605 МГц | Видеопамять: 8 Гб GDDR6 | Частота памяти: 14 Гбит/с | Разъемы питания: х1 6-контактный, х1 8-контактный | Выходы: x3 DisplayPort 1.4, x1 HDMI 2.0.

  • Плюсы: Отличная производительность | Доступная;
  • Минусы: Нет трассировки лучей;

Несмотря на то, что AMD добилась больших успехов в серии настольных процессоров, видеокарты уступают конкурирующим Nvidia. AMD Radeon RX 5700 XT продолжает стратегию компании, нацеленную на рынки низкого и среднего бюджета, не уступая предложениям Nvidia в том же сегменте. С точки зрения производительности 5700 XT близка к 2060 Super, с похожими ценами она предлагает альтернативу тем, кто ещё не решил, какого производителя выбрать.

Radeon RX 5700 XT выгодно отличается от оригинальных RTX 2070 и RTX 2060 Super в играх с разрешением 1440р. Однако и у этой видеокарты есть недостаток, который может оттолкнуть некоторых: она не поддерживает трассировку лучей. Учитывая, что вы можете получить аналогичную производительность с RTX 2060 Super, приблизительно за ту же цену, RX 5700 XT не совсем тот конкурент, который нужен AMD. Однако, если трассировка лучей не является проблемой, RX 5700 XT становится конкурентоспособной альтернативой видеокартам Nvidia среднего класса.

4 | NVIDIA GEFORCE RTX 2080 SUPER

Когда вы не приемлете компромиссов.

Ядра CUDA: 3072 | Базовые частоты: 1650 МГц (до 1815 МГц) | Видеопамять: 8 Гб GDDR6 | Частота памяти: 15,5 Гбит/с | Разъемы питания: х1 8-контактный, х1 6-контактный | Выходы: х3 DisplayPort, x1 HDMI 2.0b, x1 DVI-DL.

  • Плюсы: Производительность | Лучшая трассировка;
  • Минусы: Дорогая видеокарта;

RTX 2080 Super сменила оригинальную RTX 2080 в серии Nvidia летом 2019 года. И пока увеличение производительности Super от оригинальной модели незначительно, розничная цена почти на 200$ ниже предшественника. Это значит, что около 700$ (45500р + НДС) стоит видеокарта, предлагающая 70% производительности 2080 Ti за полцены.

Сложно определить, какая видеокарта лучше всего подходит для тех, кто в первую очередь ориентируется на игры в разрешении 1440р. За лидерство выступают 2080 Super и 2070 Super, но мы полагаем, что победит первая. Дополнительная производительность означает, что вы сможете играть в большинство игр (особенно с DLSS) и активной трассировкой лучей в 1440р, а игра не превратится в слайд-шоу. Эта видеокарта также поможет вам почувствовать себя непринужденно, когда речь зайдет о будущих играх. С выходом больших, по всей видимости, тяжелых для видеокарты игр, таких как Cyberpunk 2077, разумно инвестировать в видеокарты, которые будут оставаться актуальными дольше.

Читать еще:  На видеокарте не работает dvi

5 | NVIDIA GEFORCE RTX 2080 TI

Тотальный перебор в 1440р.

Ядра CUDA: 4352 | Базовые частоты: 1350 МГц (1635 МГц) | Видеопамять: 11 Гб GDDR6 | Частота памяти: 14 Гбит/с | Разъемы питания: х2 8-контактныx | Выходы: х3 DisplayPort 1.4, x1 HDMI 2.0, x1 USB-C.

  • Плюсы: Бескомпромиссная производительность | Трассировка;
  • Минусы: Очень дорого;

Nvidia GeForce RTX 2080 Ti от Nvidia – лучшая видеокарта потребительского уровня, которую вы можете купить прямо сейчас. И пока Titan RTX превосходит 2080 Ti с точки зрения сырой производительности, Titan поступает в розницу за 1500$ (98000р + НДС), даже не предлагает 20% дополнительной производительности в играх. При этом RTX 2080 Ti всё ещё дорогая видеокарта, а приставка Super сократила стоимость 2080 Ti. Это видеокарта, которую следует купить в том случае, если деньги не проблема, так как вы можете получить практически две карты Super за те же деньги.

Если вы собираетесь играть в 1440р и надеетесь перешагнуть порог в 100 кадров с максимальной трассировкой лучей, 2080 Ti становится единственной картой на рынке, способной предложить игры с высокой частотой кадров при включенном RTX. Даже в серии RTX, которая включает выделенные ядра для трассировки лучей, эффект работает невероятно тяжело. Дополнительная видеопамять и мощность 2080 Ti имеют большое значение даже в сравнении с 2080 Super. Если одной из главных причин для перехода на новую видеокарту становится трассировка, 2080 Ti – лучший выбор, если вы собираетесь играть в 1440р, да что там, видеокарта может воспроизводить 4К.

Есть табак, да нечем нюхать

воскресенье, 30 октября 2016 г.

Старая видеокарта + Linux + монитор с разрешением 2560×1440

Видеокарты GeForce GTS 450 были выпущены в 2010 году. Уже тогда существовали мониторы с разрешением 2560×1440 и 2560×1660, которые видеокарта, номинально, поддерживала. В 2016 году появились на свет мониторы DELL U2717D с разрешением 2560×1440. Одному из братьев не повезло: судьба забросила его на компьютер с GTS 450 с линуксом, который упорно выставлял 1920×1080, искренне считая, что ни монитор, ни видеокарта не способны на большее.

Видеокарта

Примечание: на ЭЛТ-мониторах частота регенерации совпадала с частотой мерцания изображения на мониторе; при частоте ниже 80 Гц у пользователей болели глаза. В ЖК-мониторах изображение не мерцает, но тем не менее обновляется с фиксированной частотой.

GTS 450 неспособна выдавать кадры размером 2560×1440 60 раз в секунду. В принципе, не любая частота возможна, даже в допустимых рамках. Например, частоту 30 Гц данная видеокарта выдать не может, а 33 Гц — может. Это не написано ни в какой документации и выясняется опытным путём.

Если бы мы жили в справедливой вселенной, то при подключении нового монитора драйвер видеокарты автоматически подобрал бы оптимальные для этого монитора параметры из тех, которые поддерживает видеокарта, и монитор заиграл бы всеми пикселями. В нашей вселенной ничего этого не происходит и всё согласование приходится проводить вручную.

Отметим, что линуксовые пользователи видеокарт Nvidia наделены выбором, какой драйвер использовать: проприетарный (nvidia) или свободный (nouveau). Ещё одна опция заключена в виде кабеля (VGA/DVI/HDMI). Так вот, со свободным драйвером ничего не выйдет. С DVI-кабелем тоже (включая Dual-link). По аналоговому VGA-кабелю карта не может передать такой сигнал (это, в отличие от всего остального, упомянуто в спецификации). Единственная работающая комбинация: проприетарный драйвер + HDMI.

Настройка видеосигнала имеет больше параметров, чем ширина, высота и частота обновления. Не вдаваясь в детали, скажем, что это 9 чисел + набор необязательных флагов. Общеупотребимый синтаксис задания этих настроек называется Modeline. В случае, когда с видеокарты требуется подать сигнал с параметрами, которые драйвер не считает нужным знать (это как раз наш случай), можно сообщить драйверу Modeline этого сигнала.

Но как подобрать Modeline, зная только искомые ширину, высоту и частоту? Для унификации Modeline в видеокартах разных производителей есть (точнее, был) стандарт VESA GTF (Generalized Timing Formula). Воплощением этого стандарта на практике является одноимённая утилита командной строки:

Как теперь сообщить Modeline драйверу? Многие делают это командой xrandr —newmode (например, Линус Торвальдс), но в проприетарном драйвере nvidia эта команда не поддерживается. Она поддерживается в nouveau, но не даёт результата в нашем случае. Кстати, стандарт GTF существовал до 2002 года, после чего был заменён на Coordinated Video Timings, реализованный утилитой cvt . Эта утилита выдаёт немного другой Modeline, который, как вы уже догадались, не работает.

Но мы отвлеклись. В проприетарном драйвере nvidia есть возможность задать Modeline путём добавления строки в секцию «Monitor» файла xorg.conf . Да, того самого, который устарел и не включается в дистрибутивы примерно с 2010 года. Впрочем, настройки через xorg.conf действуют и в современных версиях Xorg — если пользователь создаст этот файл.

Небольшая удача заключается в том, что графическая утилита nvidia-settings , входящая в состав драйвера nvidia, поможет нам создать xorg.conf , соответствующий оному драйверу и настройкам пользователя. Опция задания Modeline в утилите отсутствует (иначе всё было бы слишком просто, не так ли). Остаётся вписать желанные параметры вручную в уже сгенерированный утилитой файл. И обнаружить, что драйвер не хочет их выставлять.

Монитор

Драйвер отказывается передавать монитору сигнал, который тот не может принять (по идее, это способствует сохранению монитора от перегорания, ну и вообще, к чему такие трюки). Мониторы, выпускаемые c 2000-х годов (вспомните слово plug-n-play), рапортуют видеокарте о своих способностях посредством передачи EDID (Extended Display Identification Data). От монитора Dell U2717D драйвер получает некорректный EDID; виновен в этом либо монитор, либо драйвер, что, в сущности, неважно.

Отключить проверку EDID придётся вновь через опции драйвера в xorg.conf . Перечень опций приведён в конце поста. После перезапуска Xorg на мониторе устанавливается желанное разрешение — но проблемы на этом не заканчиваются.

На мониторе непривычно мелкий текст. Почему? Система рассчитывает физический размер шрифта по количеству точек на дюйм (DPI), переданного монитором в EDID. Но мы отключили EDID, да его и не было. Поэтому истинный DPI остался системе неведом, и она использует наиболее распространённое значение 96 DPI. На самом деле, в указанном мониторе DPI равно 109.

Примечание: DPI напрямую не указан в спецификации монитора. Его можно рассчитать несколькими способами по другим показателям. В спецификации ошибочно указана ширина активной области (569.736 вместо 596.736 мм), поэтому при расчёте по ширине у доверчивых пользователей получится 114 вместо 109.

Установка DPI, как и всё предыдущее, ложится на плечи пользователя. В xorg.conf есть опция задания DPI. Кажется, она не работает, но лучше оставить, вдруг какие-то программы обратят внимание на неё. То, что работает явно и сразу — это задание DPI через xrandr : или (правильные размеры рабочей области в миллиметрах).

Автозапуск этой команды имеет смысл делать после загрузки Xorg; например, в файле .xinitrc (более того, автору неизвестны никакие другие файлы, в которых добавление этой команды даёт ожидаемый результат). Итак, на мониторе теперь шрифты привычного размера. Везде, кроме браузера Google Chrome.

Проблема этого браузера в том, что он игнорирует системные настройки DPI. Собственной настройки DPI он также не имеет, считая DPI равным 96, в любую погоду.

Перекос Chrome в сторону меньшего DPI может исправить увеличенный дефолтный параметр зума (недефолтный зум регулируется кнопками Ctrl_+ и Ctrl_-, а дефолтный включается по Ctrl_0). Вычисляем требуемое значение: 109/96 ≈ 114%, идём в настройки браузера, находим там опцию «Page zoom» и обнаруживаем, что 114% в ней не поставить. В меню есть 110% или 125%. Но разве нас это остановит после всех мучений? Вызываем Inspect для меню, добавляем в него нужный пункт (или подменяем имеющийся) и выбираем. При перезапуске Chrome значение 114% исчезнет из меню зума — но сам зум останется на 114% и будет компенсировать неверное значение DPI.

Приложение: xorg.conf

Настройки собраны с форумов и могут быть избыточны; но зачем тратить время на выявление лишних, если конструкция в целом работает.

Ссылка на основную публикацию
Adblock
detector