Green-sell.info

Новые технологии
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Какое разрешение поддерживает видеокарта

Как найти максимальное разрешение, поддерживаемое графической картой?

У меня есть более старый ноутбук с Mobile Intel(R) 945 Express Chipset в качестве его видеокарты. В настоящий момент он подключен к внешнему дисплею с разрешением 1680×1050 (это собственное разрешение монитора).

Мне нужно приобрести новый монитор для этого ноутбука, и большинство дисплеев теперь имеют собственное разрешение 1920×1080. В прошлом я заметил, что если вы не дадите монитору собственное разрешение, изображение будет несколько искажено.

Итак, у меня есть следующие вопросы:

  1. Как узнать, какое максимальное разрешение разрешено графической картой? На веб-сайте Intel есть только информация для версии 945GM (не 945), в котором указано максимальное разрешение 1600×1200. Очевидно, что две версии отличаются друг от друга, поскольку мой ноутбук выдвигает более высокое разрешение.
  2. Если я действительно выясню, что максимальное разрешение ноутбука составляет 1680×1050, что я должен искать на мониторе, чтобы убедиться, что качество изображения не скомпрометировано?

Обратите внимание, что уже есть аналогичный , который, к сожалению, не ответил на эту проблему для меня.

3 ответа

Если это монитор CRT, тогда не беспокойтесь — все разрешения выглядят четкими. Если это TFT-монитор, посмотрите, как выполняется его интерполяция. Я предполагаю, что картина будет прекрасной по большей части, но текст может выглядеть немного уродливым (я рекомендую отключить ClearType в этом случае).

Максимальное разрешение видеокарты использовалось как функция размера фреймбуфера (еще в 1990-х годах, когда видеокарты имели только 2-4 МБ ОЗУ, что означало размер экрана 1024×768 @ 24bpp (1024 * 768 * 3 = = 2,25 МБ). Однако это историческая сноска и сегодня не имеет значения.

Я читал на чипсете Intel 945 Express и описывал его как поддержку SVDO и VGA. SVDO используется для встроенной панели, поэтому VGA является выходным портом.

1600×1200 звучит как разумный максимум для VGA на ноутбуке — это из-за качества требуемых ЦАП и качественной схемы, необходимой для чего-то большего. VGA имеет максимальный потолок 1920×1440, на который способны работать мои настольные компьютеры — я использовал 21-дюймовые ЭЛТ, и я запускал их в 1920×1440 раз, но сигнал был не достаточно стабильным для качественной работы, поэтому я работал с разрешением 1600×1200 время.

По какой-то причине панели TFT всегда отображают худшие изображения одного и того же аналогового сигнала VGA по сравнению с ЭЛТ — так что даже если вы можете заставить его работать с разрешением 1920×1440 (или 1920×1080), я уверен, что вы обнаружите, что качество изображения неистовое.

Итак, когда вы получаете монитор VGA, который работает с разрешением 1920×1080, я бы запустил его с разрешением 1600×1080 (вы можете принудительно настраивать разрешения (ниже максимума), настраивая некоторые файлы — таким образом вы не получите масштабирования пикселей и вы получите рабочее пространство с разумным размером. Вы можете попытаться заставить его работать с разрешением 1920×1080, но драйвер может отклонить его и вернуться к 640×480.

Если вы хотите использовать рабочее пространство 16: 9 независимо от того, попробуйте отключить интерполяцию и работать с отображением пикселей 1: 1 на вашем мониторе, но ваше рабочее пространство будет на пару дюймов меньше, чем если бы вы этого не сделали.

У вашего ноутбука есть слот для карт PCMCIA или PCI-Express? Возможно, стоит приобрести карту для той, которая поддерживает более высокое разрешение (и DVI, а не VGA). Например http://sewelldirect.com/vtbookpcmciacard.asp

Есть также видеокарты USB, но производительность на них невелика. Они действительно полезны только для офисной работы. Они могут заикаться, когда дело доходит до просмотра веб-страниц. Ваш звонок. (но лично — я бы просто заменил ноутбук. Даже low-end

Готовы ли видеокарты к разрешению 4K: тестируем текущие флагманы и их тандемы

Страницы материала

Оглавление

Вступление

Первые мониторы, поддерживающие разрешение 4К, не раз демонстрировались на всевозможных выставках. Часть из них даже пошла в серию, но цена устройства доходила, да и сейчас доходит до пугающих сумм. А выкладывать по 5-10 тысяч долларов не готовы даже богатые энтузиасты. Что тут говорить, если и в тестовых лабораториях многих изданий такие дисплеи сродни призракам. На первый взгляд, они доступны, но по факту никто не дает.

реклама

Размер 31.5 дюйма вряд ли можно считать чисто компьютерным форматом. Обычно пользователи привыкли видеть дисплеи типа 24 или 27 дюймов, максимум 30, а тут нам предлагают перейти на 31.5, да еще и сразу на 4К. Благодаря поддержке нашего партнера – компании Регард, лаборатория Overclockers.ru получила возможность проверить, готовы ли нынешние однопроцессорные графические флагманы и их связки к работе в разрешении 4K.

Но для начала – пару слов об используемом мониторе. Компания ASUS – одна из немногих, решивших попробовать себя в роли первопроходца на рынке устройств 4К. Вы думаете, она не испытывает давления со стороны конкурентов, выпустив ASUS PQ321Q? Как бы ни так, на ум приходит как минимум еще три производителя: Samsung, LG и Viewsonic. Правда, в продаже модели этих компаний до сих пор не появились.

4К – как это работает

реклама

Проблема, вполне понятная и без глубокого анализа – это мощность графической системы. Количество пикселей в 4К составляет четырехкратное увеличение по сравнению с Full HD, на практике 4K дисплей вмещает в себя четыре Full HD монитора. Как следствие, громадная площадь влечет за собой высокие требования к производительности видеокарт.

Сказать, что для разрешения 4К требуется как минимум пара хороших графических ускорителей, все равно, что ничего не сказать. Двумя GeForce GTX 670/ GTX 680 и даже GTX 770 здесь не отделаешься. Для нормальной частоты обновления экрана в свежих играх и на средних настройках потребуется что-то эквивалентное GTX 780.

Это интерфейс передачи данных, который просто не готов работать с 4К. Единственный интерфейс, пригодный для дисплеев 4К – это DP. DisplayPort версии 1.2 отличается максимальной теоретической скоростью передачи данных до 21.6 Гбит/с. Таким образом, через него можно подключить монитор, воспроизводящий картинку размером 3840 х 2400 точек с частотой 60 Гц. Как раз DP 1.2 нам и подходит, ведь номинальный режим работы монитора ASUS совпадает с характеристиками стандарта. Запомните, это важно.

Второй вариант подключения такого устройства – это пара HDMI разъемов. Почему пара? Интерфейс HDMI получил пропускную способность в пределах от 4.9 до 10.2 Гбит/с. Понятно, что одно соединение не в силах обеспечить передачу нужного количества информации. Давайте посмотрим, какой объем информации приходится передавать на монитор. 4К – это 8.3 МПикс, помножим на 60 к/с, и в итоге перед нами астрономическая цифра

500 МПикс в секунду!

На рынке до сих пор нет доступного видеопроцессора, отвечающего за вывод полученной от видеокарты информации на монитор. Поэтому в ASUS установлено целых два микропроцессора SoC (STMicroelectronics Athena). Характерной чертой этого SoC является поддержка различных разрешений: 2560 x 1600 (STDP93x0), 1920 x 1200 (STDP73x0) и 120 Гц FHD (STDP9210). К сожалению, данных, по совместимой с контроллерами герцовке, не нашлось, могу лишь предполагать, что в максимальном разрешении частота не превышает 120 Гц. Физически матрица у монитора цельная, но логически она делится на два одинаковых рабочих пространства 1920х2160. За каждую половину экрана отвечает персональный микроконтроллер.

Возникает вопрос, как тогда работает монитор по DisplayPort? Для этого в ASUS стоит хаб-разветвитель до момента попадания данных к SoC процессорам. Вот такая забавная схема подключения и дальнейшего прохождения сигнала используется в мониторе 4K. Между прочим, некоторые производители контроллеров SoC уже изъявили желание выпустить более производительные модели, но не раньше 2014 года.

Даже не проблема, а следствие того, что монитор для системы представляется как объединение двух панелей разрешением 1920х2160. AMD использует технологию Eyefinity, NVIDIA говорит об автоматическом объединении двух источников в одну рабочую область.

Увы, но обе технологии не всегда приводят к желаемому результату. Приведу наглядный пример, что происходит в системе с видеокартами AMD (только в режиме CrossFire).

реклама

Поскольку монитор для системы остается виден как пара соединенных воедино рабочих областей, то на системе с видеокартами AMD, работающими в режиме CrossFire, при перетаскивании и отображении динамично меняющейся информации возникает эффект сломанного зеркала. Происходит это потому, что обе части дисплея не успевают синхронизироваться. Очевидно, что это ошибка режима Eyefinity и CrossFire, потому как на одиночной карте искажений нет.

На видеокартах NVIDIA возникают другие нелепые ситуации. Родное разрешение 3840х2160 некорректно распознается играми. Вместо него на монитор попадает картинка размером 7ххх пикселей на 2160 пикселей, сжатая по горизонтали до 3840 пикселей. Мне встретилось сразу две игры, где этот дефект отчетливо виден: Metro 2033 и Metro: Last Light.

Скриншоты JPG в увеличенном варианте представляют собой изображения формата PNG, поэтому могут быть довольно «тяжелыми» (в среднем 9–11 Мбайт).

Читать еще:  Как узнать сокет видеокарты

Помимо этого попадаются программы, вовсе не переносящие 4К разрешение, хотя в настройках они его распознают. Как пример, приведу Sleeping Dogs.

реклама

Общее впечатление от 4К

В целом не все так плохо, как кажется на первый взгляд. Разрешение 4K отлично подойдет для трудолюбивых людей, для тех, кому требуется большое рабочее пространство для программ (как вариант – Photoshop, Premier, AutoCAD и прочие).

С играми проблем пока гораздо больше. На первый план выходит как стоимость самого монитора, тут надо отдать должное ASUS, которая предлагает наиболее гуманную цену за свой продукт, так и стоимость пары, а то и более видеокарт класса AMD HD 7970, NVIDIA GTX 780.

А тем временем мы плавно подошли к выявлению игровых нюансов. Но речь сейчас пойдет вовсе не об абсолютном сравнении между двумя решениями конкурентов, полноценное тестирование будет проведено чуть позже с различными настройками.

Тестовые конфигурации и ПО

реклама

Конфигурация захватывающей системы

  • Материнская плата: MSI 990FXA-GD80 (AMD 990FX, AM3+);
  • Процессор: AMD FX-6350 (3900-4200 МГц);
  • Система охлаждения: Corsair Hydro Series H110;
  • Термоинтерфейс: Arctic Cooling МХ-2;
  • Оперативная память: Corsair Vengeance Pro DDR3 2400 МГц, 2 модуля x 8 Гбайт, (10-12-12-31-2T, 1.65 В);
  • Видеокарта: Zotac GTX 680 AMP!;
  • Накопители:
    • SSD Plextor PX-128M5S, 128 Гбайт;
    • Два SSD OCZ Vertex 4, 256 Гбайт (RAID 0);
  • Блок питания: Corsair CX600M 600 Ватт;
  • Видеозахват: плата DataPath VisionDVI-DL.

Конфигурация игровой системы

  • Материнская плата: ASUS MAXIMUS VI HERO (Intel Z87, LGA 1150);
  • Процессор: Intel Core i7-4770К 4500 МГц (100 МГц х 45, 1.25 В);
  • Система охлаждения: система водяного охлаждения;
  • Термоинтерфейс: Arctic Cooling МХ-2;
  • Оперативная память: GeiL EVO Veloce 2400 МГц, 2 модуля x 8 Гбайт, (10-12-12-31-1T, 1.65 В);
  • Видеокарты:
    • HIS HD 7970 Turbo X;
    • PowerColor HD 7970;
    • NVIDIA GeForce GTX 780;
    • Zotac GeForce GTX 780 AMP! Edition;
  • Жесткий диск: SSD Corsair Force Series GT, 128 Гбайт;
  • Блок питания: Corsair AX1200i Digital 1200 Ватт;
  • Аудиокарта: ASUS Xonar HDAV 1.3.

реклама

Игровые приложения

  • Crysis;
  • Метро 2033;
  • Battlefield III;
  • Sniper Elite V2;
  • Tomb Raider (2013);
  • Metro: Last Light;
  • Company of Heroes 2;
  • Total War: Rome II;
  • Far Cry 3;
  • Sleeping Dogs.

Настройки качества для всех игр единые: максимальные или близкие к максимальным значениям.

Видеокарта и разрешение одновременно подключенных к ней мониторов: сохраняется ли у всех оригинальное или падает

.
Уважаемые специалисты, добрый день.

Разъясните, пожалуйста, зависит ли максимальное разрешение каждого из нескольких подключенных к видеокарте мониторов от количества подключенных мониторов.

Иными словами, делится ли «максимальное разрешение экрана», указанное в описании к видеокарте, на все подключенные мониторы или эта цифра отражает способность самого производительного порта карты выдать сигнал одновременно с другими портами, причем все порты при одновременном подключении будут показывать с таким же разрешением, как если бы их включали в одиночку?

Дело в том, что ранее я получил разные мнения от разных вроде бы знающих людей, среди которых и консультанты магазинов, и просто добрые люди, и хочется разобраться окончательно. С точки зрения примитивной физики, порты — это, наверное, несколько штекеров, параллельно подключенных к батарейке, и на них — одинаковое напряжение. Но ведь пиксели — не просто напряжение, там еще что-то есть — мощность сигнала, частота. Если нагрузка растет, что-то должно же меняться. Одновременно я не очень понимаю, что точно имеется ввиду под самой фразой в описаниях к видеокарте — «Максимальное разрешение экрана»: при каком условии оценка — когда подключен только один порт или когда все подключены, в том числе самый производительный. Отсюда и все мои проблемы с пониманием. )

Например, на сайте одного из крупных продавцов для видеокарты ASUS STRIX-GTX1070-O8G-GAMING GeForce® GTX 1070 OC ROG Strix 8 Гб GDDR5 указано, что:

— Максимальное разрешение экрана 7680 x 4320 @60 Гц при подключении к 2-м разъемам DisplayPort.
— 2 выхода DisplayPort, DVI-D, 2 выхода HDMI 2.0.

Согласно статье на википедии под названием «DisplayPort», DisplayPort 1.3-1.4 позволяет пропускать разрешение аж до 7680 х 4320, причем частота на максимумах разрешения — не выше 60 Гц. Это соответствует описанию карты. Разъем HDMI 2.0 выдает до 4K (3840 × 2160) при 50/60 Гц (статья «HDMI»). Разъем DVI-D dual link, согласно статье на вики «Digital Visual Interface», выдает максимум WQXGA (2560×1600) при частоте 60 Гц. При этом все выдают 1920 х 1080, просто замечу.

Но из всего этого непонятно, что будет, если ко всем 5 (пяти) портам одновременно подключить все эти мониторы с настройкой на их максимально допустимые разрешения:

— 2 х DisplayPort х (7680 х 4320), 60 Гц,
— 2 х HDMI х (3840 х 2160), 60 Гц,
— 1 х DVI х (2560 х 1600), 60 Гц.
— Итого 5 мониторов.

Все будут хорошо показывать в своем максимальном разрешении? Или синал «поделится» и максимум пикселей (7680 х 4320) разделится на 5 и вынудит каждый из них показывать не больше, чем (7680 х 4320) / 5 = 6635520 пикселей, что для DisplayPort и HDMI было бы возможно с разрешениями типа 3840 х 1728 (такого нет, значит, 3840 х 1440), хотя DVI бы все равно показывал максимум свои 2560 х 1600?

Или другой пример, уже условный. Скажем, некая карта выдает 4к — (3840 х 2160). При этом имеется 2 х HDMI 2.0 и 1 x Display Port. По отдельности через каждый из 3-х портов вышли бы те же самые 4k. А если подключить все 3 монитора одновременно? Они покажут видео в 4к одновременно?

lesovik, Короче. Если вы задумали выводить на 2 монитора 4к с рабочего стола — рассчитывайте на то, чем будет занято это пространство. Вы ж не будете рабочим столом любоваться? Если вы запустите на одном мониторе игру в 4к, то она сожрёт все ресурсы видеокарты, какие ей дадут. Соответственно, дадут ей — ресурс, который будет уменьшен на ту производительность, которую потратит карта на второй монитор. И вы увидите в игре — меньший фпс, чем будет у вас с одним монитором.

Получается, что дело тут не в расширении как таковом, а в том, какие именно задачи будут выполняться в этом расширении. Так-то — и 1030 способна показать 4 к. И 2 монитора, кстати. Но вот что вы будете делать с этим, если оно будет тупить у вас как черти-что?

Уважаемый kumehtar, спасибо, и Вы совершенно правы. Все от целей, но принципы-то едины.

У меня цели проще, чем игры, — работа — таблички, тексты, графики. Просто нужен большой рабочий стол, чтобы все разложить.

Выше lehhaa прав в том, что действительно сложно понять без качественной специальной подготовки, как и что работает. Отсюда и вопросы. И спасибо Вам за ссылку, информация для меня не нова, но всегда полезно перечитать.

Вы вот сказали, что ресурс карты пределен, и если будет перегрузка, то качество упадет (не в разрешении, так в фпс). Я и сам как раз на этом и стою, а то, что вопрос задаю как дятел, это я даю шанс людям ответить по-мудрому и подтвердить мои догадки, сделав всем чайникам типа меня хорошо и полезно. ))) Но когда я прихожу в магазин и спрашиваю у консультантов, что будет с разрешением при куче подключенных мониторов, они в голос мне говорят, что все будет отлично, а я как раз им говорю то, что Вы — мне сейчас, что должны быть какие-то проблемы. Но почему-то они уверенно утверждают, что общий ресурс карты НЕ делится на все мониторы.

Дело ведь и правда не только в разрешении. Ну сказали бы они, что, «возможно, разрешение и может сохраниться то же, но придется снизить частоту, и все зависит от задач» — вот и был бы ответ, но и этого не говорят. Мямлят что-то, путают. И я не понимаю. Итог этого — уже мои сомнения, а может, это я дурак и в чем-то не прав, они же компьютерщики. ) А ведь задачи и правда есть разные, и при каких-то — даже по Вашим словам — ресурсы делятся, что подтверждает и мои собственные оценки, но опровергает мнения некоторых специалистов компьютерных магазинов. И в сети нет ни одной статьи при этом по сути вопроса. Даже странно.

Вы сообщили, что если перегрузить карту, подключив несколько мониторов сверх меры, то качество изображений упадет. Я так и думал.

Верно ли, таким образом, считать, что при заданной сложной задаче (динамичная игра, обработка графики или видео) перегрузка видео карты несколькими мониторами ведет либо к тому, что для сохранения прежнего высокого разрешения мониторов нужно снижать частоту (скажем, 60 Гц > 30 Гц, поток данных в 2 раза меньше, но разрешение сохраняется), либо соглашаться на то, что изображение при той же частоте 60 Гц будет мельтешить и куралесить?

Читать еще:  Как посмотреть шину видеокарты

Если да, все понятно, и это все, что мне хотелось бы понять, и весь ответ — в три строки, причем без нотаций некоторых других участников и в духе форумной взаимопомощи. Если нет, соглашусь пойти читать книжки. )

Но еще один момент интересный. Может ли быть такое, что производитель, устанавливая на карту 3-4 порта и утверждая, что максимальное разрешение у портов такое-то, не ожидает, что при наличии 3-4 портов в мире найдется кто-то, кто подключит к ним 3-4 монитора одновременно? Наверное, это было бы странно не ожидать такого. Значит, у карт должен быть соответствующий «запас» ресурса если не для сложных игр, то как минимум для легких игра, для спокойной домашней или офисной работы, и все порты должны показывать одновременно на какой-то неплохой стандартной частоте. Так ведь? Или нет? )

Лучшая видеокарта в 2019г для 1080p, 1440p и 4K

Лучшая видеокарта в 2019г: лучшие графические процессоры для 1080p, 1440p и 4K

Когда 2018 год подошел к концу, настало время начать с нетерпением ждать лучших видеокарт 2019 года. Это были бурные двенадцать месяцев — в первой половине года наблюдалась продолжительная засуха видеокарт и небывалые цены из-за криптографии.

Майнеры выгребли все последние GPU на планете. А во второй половине года появилось несколько новых видеокарт. Например как трио Turing RTX от Nvidia и AMD Radeon RX 590.

Однако старые RX и GTX Guard все еще крепки. Что означает, что у нас больше графических карт, чем когда-либо прежде. К счастью, я собрал это удобное руководство, чтобы помочь вам найти лучшую видеокарту для вас и вашего бюджета. Будь то игры в формате 1920 × 1080, 2560 × 1440 или 4K, у меня есть рекомендации для карт.

Как выбрать видеокарту в 2019 году

Вот правила. Для каждого разрешения вы найдете две рекомендации: лучшая видеокарта для игр с частотой 60 кадров в секунду. Причем при максимальных настройках при указанном разрешении. А также карта, которую вы хотите купить, если не сомневаетесь в наличии более лучшей графики.

Таким образом, список покрывает как ограниченный бюджет, так и тех, кто предпочел бы потратить немного больше. Чтобы максимально использовать свои текущие настройки монитора.

Что касается конкретной видеокарты, которую вы можете купить, это немного сложнее определить. Более дорогие карты, как правило, имеют превосходные, настраиваемые механизмы охлаждения. Или немного более быструю заводскую разгонную скорость.

Но с точки зрения увеличения производительности вы действительно видите разницу. И только в паре кадров в секунду — как показывают многие тесты.

Я советую просто выбрать самый дешевый вариант, который вы можете найти. Поскольку я просто не уверен, что вы действительно получаете гораздо больше за свои деньги, выбрав более дорогую карту.

Если вы создаете ПК mini-ITX, вы также захотите взглянуть на «мини» версии некоторых карт. На которых, как правило, специализируется Zotac.

Они часто имеют меньший или один вентилятор. А не два, делая их немного менее эффективными, чем обычные модели. Но они являются отличной альтернативой для небольших ПК. Или для тех, кто хочет сэкономить немного денег.

Лучшая видеокарта для 1080p: Nvidia GeForce GTX 1060 или AMD Radeon RX 580

Что вы действительно должны купить: Nvidia GeForce GTX 1050Ti или AMD Radeon RX 570

Если вы хотите играть в игры с максимальными настройками 1920 × 1080. То вам подойдет 6-гигабайтная версия GeForce GTX 1060 от Nvidia или 8 ГБ AMD Radeon RX 580.

Конечно, есть более дешевые версии на 3 ГБ для моделей GTX 1060 и 4 ГБ для RX 580. Но с точки зрения того, чтобы дать себе возможность защитить себя от постоянно растущих требований к памяти современных больших блокбастеров, 6 ГБ / 8 ГБ добавят уверенности. Вы будете намного лучше себя чувствовать в последующие годы.

Обе карты способны справиться практически со всеми играми, доступными сегодня. Причем при максимальных или очень высоких настройках при этом разрешении, что делает их нашими лучшими выборщиками для безупречной игры с разрешением 1080p.

Прямо сейчас вы также получаете две бесплатные игры с RX 580 (из Devil May Cry 5, нового римейка Resident Evil 2 и The Division 2). Что, возможно, делает ее лучше в целом. Чем та-же GTX 1060, которая только дает вам бесплатную копию Monster Hunter: World и комплект снаряжения от Fortnite.

Бюджетный вариант

Тем не менее, для тех, кто предпочитает не тратить много на видеокарту, 4Гб Nvidia GeForce GTX 1050Ti или 8Гб AMD Radeon RX 570 прекрасно подойдут.

Скромные 768 ядер GTX 1050Ti проделали удивительную работу, подтолкнув ее к заметно более высоким уровням производительности. Чем даже на обычных GTX 1050 или AMD Radeon RX 560. В то время как RX 570 поставляется с более удобными 8 ГБ памяти для перспективного будущего.

Пока вы придерживаетесь 1080p, во многих играх достигается определенная гладкость с максимальным качеством. В то время как более жесткие игры обычно можно приручить с настройками Medium.

RX 570 является новым дополнением к этой категории. Так как до недавнего времени карта был почти такой же дорогой, как и RX 580. Что делало ее довольно глупым выбором. Особенно когда ее значительно более мощный родной брат стоил лишь немного дороже.

Тем не менее, при нынешних низких ценах модель на 8 ГБ теперь гораздо лучше подходит для игр 1080p. Например чем шесть месяцев назад. Она не так энергоэффективена, как GTX 1050Ti. Для видеокарты требуется кабель питания от блока питания. Вместо того, чтобы подключать ее прямо к материнской плате.

Но карта поставляется с дополнительным бонусом тех же двух бесплатных игр, что и RX 580. GTX 1050Ti, с другой стороны, сейчас не идет вообще с бесплатными игровыми пакетами.

Лучшая видеокарта для 1440p: Nvidia GeForce GTX 1070Ti или AMD Radeon Vega 56

Что вы действительно должны купить: Nvidia GeForce GTX 1060 или AMD Radeon RX 590.

Для получения наилучших результатов при 2560 × 1440 карта Nvidia GeForce GTX 1070Ti. Или AMD Radeon RX Vega 56 — это именно то, что вам нужно.

Первую можно приобрести практически за ту же цену, что и обычную Nvidia GeForce GTX 1070. А ее 2432 ядра CUDA дадут вам гораздо больше удовольствия, чем 1920, которые вы можете найти у ее не родного брата.

Что касается Vega 56, то в некоторых случаях она немного менее мощная, чем GTX 1070Ti. Но она поставляется с тремя бесплатными играми,упомянутыми выше. Что делает ее более выгодной в целом. GTX 1070Ti, тем не менее, все еще использует только тот же набор, что и GTX 1060. Monster Hunter и Fortnite.

Единственная проблема, конечно, заключается в том, что обе они по-прежнему намного дороже, чем следующие варианты. RX 590 и GTX 1060.

Бюджетный вариант

GTX 1070Ti и Vega 56, вероятно, являются достойными вложениями, если вы думаете об Обновлении до 4K-монитора в скором будущем. Так как они обе могут выполнять крошечную часть 4K-игр без багов.

Но на самом деле, те из вас, кто не так стеснен в достижении максимального качества, должны просто выбрать 6GB Nvidia GTX 1060. Или AMD RX 590.

Обе эти карты являются отличными компаньонами для игр с разрешением 1440p. А также с максимальным разрешением 1080p. И они обойдутся вам примерно вдвое меньше, чем GTX 1070Ti.

RX 580 также является хорошим выбором, если вы не можете полностью перейти на RX 590. Но новейшая видеокарта AMD, безусловно, лучшая среди среднего класса, которую вы можете купить прямо сейчас.

Во многих моих тестах производительности она показывал себя значительно лучше. Чем например GTX 1060 и RX 580. И даже могла сделать легкий заход на 4K в тех местах, на которые GTX 1060 просто не была способна.

Мы обнаружили, что GTX 1060 все еще выигрывает как лучшая карта для виртуальной реальности. Но RX 590 еще больше усугубляет сделку с довольно хорошими тремя бесплатными играми. Что может помочь свести на нет дополнительные расходы. В зависимости от того, хотите ли вы эти игры. Ведь торренты то никто не отменял 🙂

Лучшая видеокарта для 4K: Nvidia GeForce RTX 2080Ti

Что вы действительно должны купить: Nvidia GeForce RTX 2070. Или AMD Radeon Vega 64.

Это нелепо дорого, но если у вас есть деньги и вы стремитесь получить лучшее из того, что предлагает 4K, то Nvidia GeForce RTX 2080Ti — единственная карта на данный момент, которая может делать плавные плавные 60 кадров в секунду при 4K на макс. настройки без компромиссов.

Читать еще:  Процессор с встроенной видеокартой

Вы также сможете воспользоваться всеми лучшими функциями Turing от Nvidia. По мере того, как разработчики в конечном итоге внесут исправления в поддержку всех подтвержденных игр с поддержкой RTX и DLSS. И вам, вероятно, не придется обновлять видеокарту в течение значительного числа лет.

Дело в том, что вы все равно можете получить довольно хороший игровой опыт 4K почти за столько же денег. До недавнего времени я рекомендовал придерживаться GTX 1080, но цены с тех пор резко возросли, и запасы для этой карты становятся все более скудными, что делает RTX 2070 гораздо лучшим предложением для будущих 4K-игроков.

Бюджетный вариант

RTX 2070 также на несколько быстрее, чем GTX 1080, плюс она делает все аккуратные фишки, связанные с Тьюрингом, как RTX 2080Ti. И поставляется с бесплатной копией Battlefield V, чтобы продемонстрировать все это.

В некоторых играх может потребоваться установить средние и высокие настройки на 4K. Но есть еще множество других игр, которые могут достичь максимальной скорости 60 кадров в секунду с этой картой. Что делает ее гораздо более выгодной, чем ее смехотворно дорогой брат.

Однако для тех, кто ищет еще более дешевый способ получить приличный опыт работы в 4K. И лучшая видеокарта от AMD, Radeon Vega 64. Также наконец-то она и подешевела.

Она была более или менее сравнима с GTX 1080. Поэтому она не такая мощная, как у RTX 2070. Но ее более дешевая цена плюс те же три бесплатных соглашения о играх, доступных с RX 590, — в общем хороший вариант. Разумеется что все эти игры вам реально нужны. Можно и у друга взять… На этом все, спасибо за внимание.

Как настроить видеокарту (разрешение, глубина цвета, частота обновления)

Информационная емкость монитора определяется количеством точек изображения, которые могут быть одновременно воспроизведены на экране. Для жидкокристаллических мониторов эта величина постоянна — она определяется размером матрицы. Для мониторов на базе электронно-лучевой трубки (ЭЛТ) эта величина переменная — она определяется настройками видеоадаптера компьютера. Стандартные значения: 640×480; 800×600; 1024×768; 1152×864; 1280×1024; 1600×1200; 1920×1440 и другие. Для мониторов эта величина называется разрешением экрана. Минимально допустимое разрешение экрана, необходимое для работы операционной системы Windows 7 и ее приложений равно 800×600 точек.

Размер монитора измеряется по диагонали. Единица измерения — дюйм. Стандартные размеры монитора это 12″, 14″, 15”, 17″, 19″, 21″, 22″, 24″. Поскольку соотношение сторон монитора фиксировано (обычно 4:3 или 16:9), размер диагонали однозначно характеризует ширину и высоту экрана.

Если под рукой нет дюймовой линейки, и не хочется заниматься пересчетами сантиметров в дюймы, узнайте длину горизонтальной стороны экрана в сантиметрах и разделите ее пополам.

В отрезке АВ столько же сантиметров, сколько в отрезке АС дюймов.

Настройка разрешения экрана.

Основное средство для управления графическими параметрами Рабочего стола — диалоговое окно. Свойства: Экран. Его можно открыть с помощью Панели управления через меню Пуск — Панель управления — Экран). Можно также кликнуть правой кнопкой мышки на свободном месте Рабочего стола и выбрать в открывшемся контекстном меню пункт Разрешение экрана.

В диалоговом окне Свойства: Экран, откройте вкладку Параметры. Для задания разрешения экрана служит движок Разрешение экрана. Набор возможных разрешений зависит от аппаратных возможностей видеосистемы. Если установлены правильные драйверы видеоадаптера и монитора, здесь доступны только корректные значения.

Разрешение экрана выбирают, исходя из условий комфортной работы. Так как размер экрана монитора не меняется, можно условно говорить о том, что отдельные пикселы при изменении разрешения становятся крупнее или мельче. Если разрешение уменьшается, пиксели увеличиваются. Соответственно, элементы изображения становятся больше, но на экран их помешается меньше — информационная емкость экрана уменьшается.

При увеличении разрешения информационная емкость экрана увеличивается. В современных программах очень много элементов управления. Чем больше их помещается на экране, тем лучше. Поэтому при настройке видеокарты следует выбрать максимальное разрешение экрана, при котором нагрузка на зрение остается в допустимых пределах. Пределы эти зависят от состояния органов зрения, характера работ и качества устройств видеосистемы. Ориентировочные данные представлены в таблице.

Для жидкокристаллических мониторов разрешение выбирают иначе. Оптимально такое разрешение, при котором пиксел изображения совпадает с элементом жидкокристаллической матрицы. С этим техническим разрешением работать наиболее удобно.

Иногда приходится с разными программами работать в разном разрешении. К сожалению, автоматическая смена разрешения в Windows 7 не предусмотрена. Программы (в основном, компьютерные игры), которым нужен полноэкранный режим, сами задают разрешение экрана при запуске. Для старых программ можно выбрать автоматическое переключение в режим 640×480 с помощью настроек совместимости.

Глубина цвета

Значение глубины цвета, или цветовое разрешение, указывает, сколько разных вариантов цвета может воспроизводить отдельный пиксель. Операционная система Windows 7 поддерживает следующие цветовые режимы:

  • 65 536 цветов (High Color, 16-разрядный цвет);
  • 16 777 216 цветов (True Color, 24-разрядный цвет).

Современные видеоадаптеры могут отвести под цвет 32 разряда, хотя значащих все равно остается 24. В Windows 7 могут работать и старые программы, рассчитанные на 256 цветов.

Цветовое разрешение выбирается в раскрывающемся списке. Качество цветопередачи на вкладке Параметры диалогового окна свойств экрана. Для современных видеоадаптеров включите 32-разрядный цвет. Разницы в быстродействии между режимами High Color и True Color почти нет, так что уменьшать число цветов не имеет смысла.

Частота обновления экранного изображения

На удобство работы с компьютером сильно влияет частота обновления изображения на экране — частота кадров. Эта настройка важна только для мониторов с электронно-лучевой трубкой. Перед построением кадра луч кинескопа монитора возвращается из нижней части экрана в левый верхний угол. Поэтому иногда говорят о вертикальной частоте. У жидкокристаллических мониторов этот параметр не может изменяться.

При низкой частоте кадров глаз замечает «дрожание» изображения, что приводит к быстрому утомлению зрения. Минимально допустимой считается частота в 60 Гц. Длительная работа за компьютером возможна при частоте обновления от 75 Гц и выше. Комфортную работу обеспечивает частота более 85 Гц.

Допустимые частоты обновления зависят от возможностей монитора. Чем выше разрешение экрана, тем больше информационная емкость кадра, поэтому при фиксированной величине потока видеоданных рост разрешения сопровождается снижением предельной частоты кадров. Это следует учитывать, если Вы хотите работать с самыми высокими разрешениями, доступными монитору.

В предельных режимах, при частоте обновления, близкой к максимальному допустимому значению, качество изображения может падать. Иногда размываются резкие границы, например линии в буквах и других символах. В этом случае частоту обновления надо снизить. Для некоторых мониторов выбирать максимальную частоту не советует фирма-производитель.

Настройка частоты обновления экрана:

  1. Откройте утилиту свойств экрана через меню Пуск — Панель управления — Экран.
  2. Откройте вкладку Параметры.
  3. Нажмите кнопку Дополнительно — откроется диалоговое окно свойств видеосистемы.
  4. Откройте вкладку Монитор и убедитесь в том, что модель монитора задана правильно.
  5. Установите флажок. Скройте режимы, которые монитор не может использовать.
  6. Выберите частоту обновления в раскрывающемся списке Частота обновления экрана.

После смены частоты обновления убедитесь, что качество изображения улучшилось. Если это не так, восстановите старые настройки или выберите иное значение параметра.

Возможные частоты обновления операционная система получает от драйвера монитора. При корректном драйвере задать недопустимые настройки невозможно, так как при завышенной частоте кадров монитор может выйти из строя.

Все параметры графического режима (разрешение, количество цветов, частоту кадров) можно задать одновременно. Эта настройка рекомендуется опытным пользователям.

Эффективное назначение графического режима

  1. Откройте утилиту свойств экрана через меню Пуск — Панель управления — Экран.
  2. Откройте вкладку Параметры.
  3. Нажмите кнопку Дополнительно — откроется диалоговое окно свойств видеосистемы.
  4. Откройте вкладку Адаптер.
  5. Нажмите командную кнопку Список всех режимов — откроется одноименное диалоговое окно. В нем приведены BCCL режимы, допускаемые видеосистемой компьютера.
  6. 6. Выберите нужный режим и проверьте, как изменилось качество изображения.

Если видеосистема не сможет установить заказанный режим, изображение на экране, скорее всего, пропадет. В этом случае, если Вы твердо знаете, что хотите получить, параметры экрана можно настроить за один прием. Непонятно, что делать дальше. В качестве меры защиты в системе Windows 7 надо подтвердить корректность переключения режима. Если подтверждение не последует, через несколько секунд восстановится прежний режим. Если Вы видите такое окно, нажмите кнопку Да, чтобы принять сделанные настройки.

Ссылка на основную публикацию
Adblock
detector