Green-sell.info

Новые технологии
4 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Linux две видеокарты

Как я могу заставить несколько видеокарт работать в Linux?

Я установил Fedora 12.

У меня есть две карты ATI, которые я использовал для Windows, чтобы запускать 4 монитора. Повторяющаяся проблема заключалась в том, чтобы обнаружить их в Linux. Только моя вторичная карта подхвачена linux. Когда я управляю дисплеями, он обнаруживает, что 2 монитора подключили эту карту.

Каковы конкретные шаги, которые я должен предпринять, чтобы обнаружить вторую карту? Предположительно есть инструмент system-config-xfree. У меня его нет, yum не может найти его.

Также я слышал, что он имеет какое-то отношение к редактированию некоторого файла xorg.conf или что-то в этом роде. Я абсолютно не знаю, как найти «идентификатор шины» моей карты, или посмотреть горизонтальные частоты обновления и т. Д.

У меня, вероятно, не возникнет проблем после документации & amp; редактируя файл, если бы я знал хороший способ найти эти значения.

Кто-то также предложил установить Linux дважды и сохранить xorg.conf, который он генерирует каждый раз (с разной картой каждый раз), а затем слияние двух вручную. Это похоже на убийство мухи молотком, хотя, когда я делаю это снова и снова в будущем, было бы неплохо не принимать в два раза больше времени.

1 ответ

Поиск «идентификатора шины» ваших карт легко, просто запустите:

результат будет примерно таким:

Затем «01: 08.0» — ваш идентификатор шины. Если у вас две карты, у вас будет две строки.

Затем откройте файл /etc/X11/xorg.conf с текстовым редактором как root. Отредактируйте его, чтобы он содержал два раздела «Устройство». Пример раздела устройства:

Идентификатор — это любой текст, который вам нравится идентифицировать с вашей видеокартой — вам это понадобится в последующих разделах файла xorg.conf. Драйвер является одним из: apm, ati, chips, cirrus, cyrix, fbdev, glide, glint, i128, i740, imstt, intel, mga, neomagic, nv, openchrome, r128, radeon, rendition, savage, s3virge, siliconmotion, sis , sisusb, sunbw2, suncg14, suncg3, suncg6, sunffb, sunlecx, suntcx, tdfx, trident, tseng, vesa, vmware, voodoo, wsfb, xgi, xgixp. Выберите один из них, который кажется похожим на тип чипсета, который находится на вашей видеокарте (строка из lspci | grep VGA будет полезна). И BusID, который вы уже знаете. Создайте два таких раздела.

Я объясню, как настроить две montiors с двумя видеокартами, вы сможете расширить это до четырех мониторов, как только вы поймете, как работает файл конфигурации.

Затем создайте два раздела «Монитор». Некоторым вроде этого должно быть достаточно:

Идентификатор снова все, что вы выберете, вы должны проверить горизонтальную синхронизацию и вертикальные частоты обновления в вашем руководстве по эксплуатации монитора, чтобы узнать два других требуемых параметра.

Затем создайте два раздела «Экран» следующим образом:

Если вы используете идентификаторы, которые вы составили в предыдущих разделах, а 24 — глубина цвета, которую вы хотите, а в режимах вы помещаете требуемое разрешение на этот монитор.

Последнее, что вы хотите, это отредактировать раздел ServerLayout, чтобы выглядеть так:

Большая часть его уже будет там, вам нужно добавить эту строку:

Где вы помещаете идентификаторы экранов, которые вы определили ранее.

Затем перезапустите свой X-сервер, и он должен работать. Если он не выглядит в /var/log/Xorg.0.log или аналогичном файле журнала для ошибок. Если вы хотите прочитать, как создавать такие файлы, это должно быть в руководстве:

Если у вас его нет, поиск Google для «man xorg.conf» будет показывать много ресурсов.

Это также должно быть интересно для вас: Ссылка

Две видеокарты — как подружить?

Вечер добрый, коллеги)

Столкнулся с некоторой проблемой, которая в общем-то даже не совсем к убунте имеет отношение, скорее к самому железу, но вдруг кто-нибудь всё-таки подскажет ответ)

Имеется материнская плата ASRock G31M-VS, несущая на борту встроенную видео-карточку на базе Intel GMA 1300, а так же вторая полноценная видео-карта nVidia GeForce GT 240. И захотелось мне, мазохисту, что бы они работали одновременно, и подключить к ним разные мониторы (да-да, я знаю что можно и к одной карте два монитора подключить, но мне хочеться именно так). Естественно я первым делом проверил видит ли система встроенную карту, однако.

-$ lspci -nnk | grep -i VGA
04:00.0 VGA compatible controller [0300]: nVidia Corporation GT215 [GeForce GT 240] [10de:0ca3] (rev a2)

Смекнул, что встроенная карта может быть отключенна в биосе и тут встал в тупик. Там в настройках видео есть только один пункт — «выбор основной карты», с вариантами «onboard» и «PCI». По-умолчанию стоит PCI, и встроенная карта не обнаруживается. Ставлю onboard, загружаю систему и. не обнаруживается nVidia.

Это всё наводит меня на мысль о том, что производитель физически на корню отключил возможность использования двух видео-карт. Такое вообще возможно? Есть мысли, в какую сторону копать?)

Чтобы у вас все заработало
научить мать работать с двумя видюхами — переписать биос
написать дрова для 2х несовместимых видеоядер.
именно по этому производитель этим и не занимается — работы море а выхлоп нулевой

Видел на чужой винде и компе с двумя видюхами подключал телевизор чтобы одновременно смотреть ТВ по локалке и бороздить тырнет. При выборе два монитора показывают AGPкарточку, а один встроенную. В режиме расширенного рабочего стола работало все хорошо. БИОС ТУТ НЕ ВИНОВАТ. Его там точно никто не переписывал. Так как второго монитора не было чтобы проверить, то я просто уводил курсор влево (там где встроенная видюха должна выводить изображение) и он действительно уползал за пределы экрана. Скрин постараюсь скоро раздобыть.

Если на материнке чипсет от AMD со встроенной ATI и внешняя тоже ATI (или, наоборот, nVidia + nVidia), то они могут работать вместе. А у топикстартера встроенная Intel, а внешняя nVidia. Тут уж извините.

Hydra тихонечко колупает аналогичную тему, но очень, очень, очень стесняется.
Поэтому вечный русский вопрос, как скрестить ежа и ужа, и ныне там.

В принципе все реально)) Имею материнскую плату Asus А88XM Plus c двумя PCI слотами: в первом стоит Nvidia GTX 750 Ti. Дабы разбудить встроенную в проц HD 7560D пришлось во второй слот ставить затычку в виде HD 5670)))

А по-моему не будет она работать с двумя карточками сразу. Тут про такое ничего не написано.

У меня тоже асрок, но у меня может, и то вторая должна быть ати, потому что встроенная такая, к тому же вторая/первая карточка не будет выводить изображение(у меня), а будет работать как сопроцессор для первой/второй.

Читать еще:  Монитор со встроенной видеокартой

Наверное тут лучше поспрашивать тех кто железками занимается.

Matino

Search

Main Menu

Страницы сайта

20 мая 2010 г.

Mint, Ubuntu и ноутбук на 2 видеокарты

Последнее время у производителей появилась тенденция ставить на ноутбуки две видеокарты — одна какая-нибудь простенькая интеловская для экономии электроэнергии, а другая — навороченная для игр и видео. Насколько я знаю, таким точно грешит Lenovo, и под эту же тенденцию попал и я со своим HP TouchSmart tm2-1080er. Если на предустановленной Windows 7 Home x64 возможность переключаться между картами, разумеется, имелась, то Windows 7 Professional x32 вторую видеокарту включать уже не захотел. Не лучше обстояла ситуацию и в Ubuntu — видеокарты определяются-то обе, а вот использоваться предпочитает только дефолтная интеловская. И питание жрут, разумеется, обе — как результат, ноутбук работает намного меньше, чем должен. Как мы будем с этим бороться?
Итак, у нас есть две видеокарты:
$ lspci | grep VGA
00:02.0 VGA compatible controller: Intel Corporation Mobile 4 Series Chipset Integrated Graphics Controller (rev 07)
01:00.0 VGA compatible controller: ATI Technologies Inc M93 [Mobility Radeon HD 4500 Series] (rev ff)
Наша задача — либо научиться переключаться между двумя видеокартами, либо хотя бы отключить питание второй видеокарты.

Способ первый. Убить пересмешника.

Первый способ простой. Мы возьмём готовый модуль, написанный для ноутбуков Lenovo (для нашего замечательного HP он тоже подходит) и заставим его прикручиваться к нашему ядру. Для этого мы воспользуемся deb-пакетами и системой динамического прикручивания модулей — DKMS.
Модуль я обозвал незатейливо — hp_acpi_kill.

Берём исходный код модуля и сохраняем его под именем hp_acpi_kill.c
Теперь кладём рядом Makefile.
Это наш необходимый модуль, написанный неизвестным энтузиастом для OpenSUSE.

Теперь нам надо написать конфиг для DKMS, чтобы не пересобирать модуль под каждую новую версию ядра. К счастью, DKMS устроен очень просто, и конфиг получается короткий. Скачиваем и сохраняем под именем dkms.conf. В этом файле мы указываем имя компилируемого модуля, его версию, а также как компилировать и ставить наш модуль. Казалось бы на этом можно и остановиться — добавить модуль в DKMS, собрать и установить — но мы всё-таки пользователи удобного дистрибутива, а не не пойми чего. Поэтому мы завернём наш модуль в пакет.
Углубляться в подробности сборки пакета я не буду, посколько на хабре писал об этом уже много, скажу лишь, что помимо обычного набора файлов нам потребуются файлы *.postinst,*.postrm, *.prerm — чтобы наш модуль регистрировался и компилировался в DKMS при установке пакета, а также вычищался при удалении. Скачать архив со всеми необходимыми файлами можно тут.

Собираем пакет командой debuild или dpkg-buildpackage на выбор, устанавливаем и добавляем в /etc/modules название модуля hp_acpi_kill — теперь при загрузке системы дискретная видеокарта будет отключаться и энергопотребление резко падать.
Посмотрев список устройств, мы обнаружим, что наша видеокарта системе видна, но не определяется:
$ lshw
.
*-generic:0
product: Illegal Vendor ID
vendor: Illegal Vendor ID
physical id: 0
bus info: pci@0000:01:00.0
version: ff
width: 32 bits
clock: 66MHz
capabilities: bus_master vga_palette cap_list rom
configuration: driver=radeon latency=255 maxlatency=255 mingnt=255
resources: irq:31 memory:c0000000-cfffffff ioport:3000(size=256) memory:e4400000-e440ffff memory:e4420000-e443ffff

Способ второй. vga_switcheroo

Способ второй потребует от нас немножко трафика и капельку времени. Дело в том, что не так давно вышла версия 2.6.34 ядра, в которую включен новый интересный модуль — vga_switcheroo, который как раз и призван переключать видеокарты. На Launchpad и kernel.ubuntu.com даже можно найти пакеты с этим ядром, но в дефолтном конфиге модуль выключен — вероятно потому, что удобных графических средств для переключения видеокарт пока не придумали.

Поэтому для начала скачаем исходный пакет с ланчпада (он предназначен для Maverick Meerkat, но и у нас отлично заработает):
$ wget https://launchpad.net/ubuntu/+archive/primary/+files/linux_2.6.34-2.9.dsc
$ wget https://launchpad.net/ubuntu/+archive/primary/+files/linux_2.6.34-2.9.tar.gz
Распакуем его:
$ dpkg-source -x linux_2.6.34-2.9.dsc
Теперь зайдём в каталог linux-2.6.34 и откроем файл debian.master/config/config.common.ubuntu любым любимым редактором. Найдём строку «# CONFIG_VGA_SWITCHEROO is not set» и заменим её на «CONFIG_VGA_SWITCHEROO=y» (кавычки не нужны).
На всякий случай откроем ещё файл debian/config/enforce и допишем в нём строку «value CONFIG_VGA_SWITCHEROO y» — это поможет при сборке убедиться, что ни одна зараза не испортила выставленный параметр.
Собираем командой debuild (собираться будет долго, потому что при сборке пакета собирается ВСЁ) и устанавливаем:
$ sudo dpkg -i linux-headers-2.6.34-2_2.6.34-2.9_all.deb linux-headers-2.6.34-2-generic_2.6.34-2.9_i386.deb linux-image-2.6.34-2-generic_2.6.34-2.9_i386.deb Если у вас 64-битная система, вместо i386 в имени файла будет, разумеется, amd64.

Как нам после перезагрузки в новое ядро переключить видеокарту? Посмотрим на сводку советского информбюро: $ cat /sys/kernel/debug/vgaswitcheroo/switch
0:+:Pwr:0000:00:02.0
1: :Off:0000:01:00.0
Плюсик показывает нам активную видеокарту, пометка Pwr — что видеокарта включена, Off — что выключена. Что можно изменить? Есть замечательный список команд, которые можно передать vga_switcheroo:
DIS — немедленное переключение на дискретную видеокарту
IGD — немедленное переключение на интегрированную видеокарту
DDIS — отложенное переключение на дискретную видеокарту
DIGD — отложенное переключение на интегрированную видеокарту
ON — включить неиспользуемую видеокарту
OFF — выключить неиспользуемую видеокарту
Сразу скажу, немедленное переключение у меня никакого немедленного эффекта не даёт.
Поэтому скомандуем: # echo ON > /sys/kernel/debug/vgaswitcheroo/switch # включим дискретную видеокарту
# echo DDIS > /sys/kernel/debug/vgaswitcheroo/switch # попросим при случае переключить на дискретную видеокарту
Теперь нажимаем в системе «завершить сеанс», логинимся заново и выключаем интегрированную видеокарту:
# echo OFF > /sys/kernel/debug/vgaswitcheroo/switch
Смотрим на результат:
$ $ cat /sys/kernel/debug/vgaswitcheroo/switch
0: :Off:0000:00:02.0
1:+:Pwr:0000:01:00.0
Теперь можно поиграть в игры, посмотреть HD-видео и не тратить питание на интеловскую карту. А можно переключиться обратно и тратить еще меньше энергии на полноценную видеокарту, экономя батарейку. Долгих ей лет

Две разные видеокарты в одном пк.

Есть: ASROCK B450 STEELLEGEND, AMD RYZEN 5 3600, GeForce 1050 ti, 16 GB DDR4.

Прекрасно работающая карта в винде и отвратительно работающая на линуксе, юзабельность в GNOME и KDE близится к нулю. Хочу купить недорогую карту от AMD, которая вполне дружит с Linux, вроде RX 560 — RX 580, которые достаточно старые, но достаточно производительные для игр и задач.

Теперь вопрос про железо: смогу я держать на одной материнке две видеокарты в разных PCI-слотах (благо их два для видяхи) и в зависимости от системы, просто подключать мониторы к нужной видяхе, а вторая в это время будет простаивать, или же они будут друг другу мешать?

Читать еще:  Как узнать на сколько загружена видеокарта

Прекрасно работающая карта в винде и отвратительно работающая на линуксе, юзабельность в GNOME и KDE близится к нулю.

В чём это выражается?

Подлагивание меню приложений, в целом сейчас не все так ужасно, как было 4 года назад, новые драйвера решили проблему тиринга и на XFCE4 вполне комфортно и на NVIDIA сидеть, но это закрывает доступ к свободным драйверам и другим окружениям.

GeForce 1050 ti,

У меня такая же. Прекрасно работает на блобе как по виндой, так и под линем.

Теперь вопрос про железо: смогу я держать на одной материнке две видеокарты в разных PCI-слотах (благо их два для видяхи) и в зависимости от системы, просто подключать мониторы к нужной видяхе, а вторая в это время будет простаивать, или же они будут друг другу мешать?

В теории не должны. Но неизвестно как amdgpu поведет себя с двумя «полярисами» – RX560 и RX580.

У меня прекрасно работали под линем (но с ATI Catalyst) старые XT7870 и R7 350, использовал обе видяхи в Blender. Монитор был подключен к первой.

Подлагивание меню приложений, в целом сейчас не все так ужасно, как было 4 года назад,

4 года назад у меня подлагивали плазмокеды, но я так и не понял из-за чего, то ли из-за старого двухъядерного проца, то ли из-за GT 630 с блобом. Сейчас у меня XFCE4+i7 3770+GTX 1050Ti+блоб 440. Тиринга нет, лагов нет.

Точнее, «прекрасно» работали.

GeForce 1050 ti

Прекрасная производительность на лине и тем более в гноме. С такими взглядами и предрассудками ничего не спасет.

Подлагивание меню приложений

Включи уже Force Composition Pipeline в настройках блоба.

Прекрасно работающая карта в винде и отвратительно работающая на линуксе, юзабельность в GNOME и KDE близится к нулю.

Может быть, если под «онтопиком» использовать Nouveau. С Wayland он работает, откровенно говоря, плохо. С X.org, вроде бы, получше. Плюс нужно обязательно устанавливать EGLstreams.

Если хотите, чтобы работало — ставьте блоб. Иначе, увы, никак.

Хочу купить недорогую карту от AMD, которая вполне дружит с Linux, вроде RX 560 — RX 580, которые достаточно старые, но достаточно производительные для игр и задач.

Рекомендую 570 как минимум. Младшие модели не особо подходят для игр, а 570 достаточно дешёва и производительна. Сам такой владею.

С другой стороны, у вас же «дуалбут»! Тогда игры можно и под «виндой» запускать и не морочить себе голову покупкой новой видеокарты (хотя 1050Ti я всё же рекомендовал бы заменить хотя бы на 1650 Super или ту же 570-580).

смогу я держать на одной материнке две видеокарты в разных PCI-слотах (благо их два для видяхи) и в зависимости от системы, просто подключать мониторы к нужной видяхе, а вторая в это время будет простаивать, или же они будут друг другу мешать?

Сможете. Конечно, работать они будут, скорее всего, в режиме 8+8 линий, но это не так уж и хуже 16-ти. Кстати, можно попробовать подключить один монитор к обоим «карточкам» и просто переключать источник изображения (если несколько портов на мониторе; правда, не знаю, сработает ли).

Все это есть. Гном работает как говно. Примерно в 10 раз хуже, чем XFCE, в 3 раза хуже КДЕ и в 100 раз хуже винды. В целом мы имеем, что блоб хорошо работает только на XFCE4.

За 570 спасибо, посмотрю в её сторону. Я бы хотел скорее что-то сопоставимое с 1050ти по производительности, но хорошо работающее под линуксом на всех ДЕ и окнах (как-то же люди разрабатывают ГНОМ и записывают видео без лагающего меню и дергающихся окон). Впринципе, если покупать 570-580, то 1050ти можно просто убрать, потому что и на винде это будет вполне ОК.

С такими взглядами и предрассудками ничего не спасет.

Ну скакуну-ковыряльщику явно лучше без проприетарного блоба.

на XFCE4 вполне комфортно

а версия крыски последняя? Я слышал, в конце 2019, они пофиксили комфортное использование, и теперь это почти что гном

Можешь. Но учитывай то, что в PCIe линии будут разделены на две x8.

Вроде да, на 4.14 сидел пару недель. По-моему немного даже лучше стало, симпатичные гномовские приложения стали лучше работать.

установи nvidia-driver и не мучайся

проблем не будет. дуал-бут не нужен в такой ситуации, используй вфио и квм, будешь играться в винде без перезагрузок

по линиям псие в слотах, надо брать материнку, чтобы получилось именно 8+8, а не 16+4.

Ничего, через 3 года раскроют потенциал)

С ним то проблемы в гноме и кедах никуда не уходят. Производительность окружения хуже окружения винды раз на пару порядков. Это просто неотзывчивая хрень и мучения получаются.

Добавлю, что эта жуть не особо зависит от видеокарты. Я прошел через невидию, амуде и интел на лине… Ничего не помогало… 10-ка после страданий показалась даром б*жьим.

570 достаточно дешёва и производительна. Сам такой владею.

Подтверждаю. RX570 купил на днях за $100, всё работает нормально.

Linux две видеокарты

22 июн 2017, 21:04

Возник вопрос общего характера, т.к. запутался в куче различных гайдов и советов разных лет.

Дано: Машина с двумя видеокартами, GTX950 и интегрированное ядро процессора.

Хочу: Заставить обе видеокарты работать одновременно. Интегрированное ядро может не отключаться при наличии внешней карты. Под Windows на этом железе такое возможно. Проверено.

Вопрос: Как правильно это реализуется в современных линуксах? При настройках системы по умолчанию работает только одна карта — та, что установлена как первая для инициализации в биосе. Вторая молчит. Для диагностики (в биосе стоит инициализация GTX950 первой):

DVI-D-0 — это монитор который воткнут в интегрированную карту. Активировать не получается. Эта строчка не меняется от наличия или отсутствия монитора на кабеле, пока первой в биосе выставлена внешняя карта.
DVI-I-0 — это монитор который временно перекинут на второй видеовыход внешней видеокарты.

Подскажите пожалуйста общее направление — куда дальше копать? У меня сложилось впечатление что X-ы или то, их конфигурирует, наткнувшись на первую видеокарту на этом и успокаивается. Надо как-то объяснить системе что у нее больше одной видеокарты — но как это сделать правильно? Про xorg.conf боле-менее современные источники говорят что он устарел (старые соответственно не работают). А новых найти не могу. Или теперь у всех оно автоматически «просто работает», а я такой невезучий?

Читать еще:  Как узнать какая видеокарта работает

Да, я понимаю конечно, что проще просто воткнуть второй монитор во второе гнездо первой видяхи и не заниматься странным, но я хочу разобраться именно со случаем двух раздельных видеокарт. Т.к. Есть желание в дальнейшем разбираться с пробросом видеокарты в KVM. А для этого нужны именно две раздельные видеокарты. Но сначала нужно хотя бы разобраться с обычными X-ами, IMHO.

Второй попутный вопрос: Куча советов по настройке X-ов, требуют править содержимое каталога /etc/X11/xorg.cond.d — в Минт 18 такого каталога нету, но есть /usr/share/X11/xorg.conf.d — это оно самое (просто в другом месте), или не совсем?

Третий попутный вопрос: Столкнулся с тирингом видео. Победил только засунув в xorg.conf (который сгенерил графической утилитой nvidia драйверов) вот этих кусков выделенных жирным):

Две видеокарты одновременно в Linux Mint 18

22 июн 2017, 22:42

slant , для проприетарного драйера должна быть актуальна директива nvidia-xconfig —sli=on (правки про тиринг возможно затрет, оно вроде генерит свой конфиг)

У тебя тут как раз вижу Option «SLI» «Off» можно наверное и вручную поправить, но не уврен что там одна директива для двухкарточного режима.

Две видеокарты одновременно в Linux Mint 18

22 июн 2017, 22:52

Две видеокарты одновременно в Linux Mint 18

22 июн 2017, 23:00

Две видеокарты одновременно в Linux Mint 18

22 июн 2017, 23:05

Две видеокарты одновременно в Linux Mint 18

23 июн 2017, 12:54

М. Я наверное несколько неточно сформулировал свои ожидания. Я не надеюсь что мне подскажут сразу точное решение, но очень бы хотелось, чтобы кто-то уточнил на словах — как оно должно быть в принципе, если следовать логике дистрибутива:
— Два Х сервера с полностью разными конфигами, ли один общий конфиг в /etc/X11/xorg.conf c разными секциями?
— Конфиги должны быть составлены вручную, или есть какой-то механизм управления автогенерацией/автодетектом при старте (я так подозреваю, что это каталог /usr/share/X11/xorg.conf.d )?
— Чем эти два X сервера должны запускаться — есть штатный механизм, или второй Х только руками?
— Налаживается ли в таком варианте общее пространство рабочего стола или нет (т.е. мышка может свободно переходить между ними или нет). Это штатная фича, или ставится какой-то дополнительный софт?

Или, может, я вообще тут страдаю такой редкой фигней, которая в современных дистрибутивах вообще не предусмотрена штатно? Просто в гугле материала так много что я в нем запутался малость. Общее направление движения хотелось бы определить, применительно именно к современному состоянию Минт/ubuntu.

Две видеокарты одновременно в Linux Mint 18

26 июн 2017, 17:07

Перекопал кучу документации и изрядно помучал гугл, но заставить все нормально заработать так и не смог, надеюсь — пока. Однако появились более конкретные вопросы.

Сделал конфиг Xorg — теперь второй монитор подключенный к интегрированному видео Пытается включится при старте Xorg (например когда его mdm запускает), но через секунду уходит обратно в спячку.

Вот лог Xorg’a: — Там видно, что драйвер даже пытается стартовать, и сканирует монитор на предмет режимов. Причем правильно их находит. (1280х1024 родное разрешение этого монитора, пусть обозначает его SyncMaster без конкретной модели в названии — но это для него нормально.)

Вот сам конфиг Xorg:

Монитор который воткнут в интегрированное видео — Monitor1/Screen1.
Пробовал менять драйвер на modesetting — лог вывода и общий результат практически идентичный.

По идее монитор должен висеть на HDMI-1-1 (? если верить логу Xorg ) но такого нету в списке вообще.

Еще подозрение вызывает вот это:

[/i]
Т.е. драйвер intel почему-то выгружен? Почему?

Вот что выдает lspci -k применительно к видеокартам:

Тоже вопрос: а при чем тут «i915» для интегрированного видео, если по идее оно должно использовать «intel»? Или я здесь недопонимаю что-то?

Пробовал откатится на nouveau для GTX950 — не помогает. Ни с конфигом, ни без конфига. На всякий случай перепроверил под виндой — конфигурация для материнки в принципе рабочая, там оба монитора на разных картах живут одновременно без проблем.

У меня такое чувство, что я где-то что-то практически очевидное не замечаю.

Две видеокарты одновременно в Linux Mint 18

03 июл 2017, 01:26

Все еще не теряю надежды разобраться в происходящем, но пока подвижек мало. Перешел к дифференциальной диагностике.

1. Скачал и запустил Mint 17.3 в лайв режиме. Результат: система увидела только монитор на интеловском ядре. Походу слишком старое ядро/драйвера чтобы запустить GTX 950.
2. Запустил Минт 18.1 в лайв режиме. Результат: иксы видят только монитор на карте Nvidia (драйвер noveau) однако на мониторе подключеном к интеловскому ядру остается висеть логотип минта (который при загрузке).
3. Скачал и запустил Manjaro Linux в лайв режиме. Результат: система видит сразу оба монитора и позволяет произвольно включать и выключать их сразу, без дополнительных конфигураций иксов вручную. То, чего хочу достичь в минте.
4. Если физически удалить GTX950 из машины, то минт видит и использует интегрированное интеловское ядро. И в лайв режиме, и с тем конфигом что я писал для иксов. Т.е. драйвер есть и работоспособен.
5. У манжаро ядро 4.9. На установленной системе у меня установлено 4.10, так что тут если только регрессия?.

После закидывания гугла подозрительными местами из логов запуска иксов — почти постоянно вкидывает на руководства по настройке Nvidia Optimus. Возник вопрос: а не может ли быть так, что система считает, что у меня именно подобная конфигурация, и отключает «ненужную» вторую карту после первичной инициализации? Ведь в логах иксов я вижу второй подключенный монитор, его порт, и результат опроса рабочих режимов. А в xrandr потом нет этого порта вообще (даже не просто отсутствие доступных режимов монитора — самого названия порта подключения нету).
Как бы попробовать выпилить все относящееся Optimus из системы напрочь, хотя бы для теста? Или отключить его полностью? Можете подсказать как? А то в гайдах только про настройку пишут.

Ссылка на основную публикацию
Adblock
detector