-
Ребята, попутно задам вопрос: насколько я знаю, карты с интерфейсом PCI-E 3.0 прекрасно работают с материнкой PCI-E 2.0
Но в чем тогда минус такой работы? А если быть точнее, скажется ли это на рендере?
-
Модели памяти одинаковые, согласованные. Более того, вчера на этой, уже новой памяти со старой видеокартой, я прекрасно работал. Сегодня воткнул новую видеокарту и вот имею гембель((( Биос не обнулял, честно говоря никогда этого не делал. Но гугл поможет я надеюсь.
-
Выдерни батарейку на минутку из материнки.
-
попробую
-
Олег тормозит только Премъер?
Потестируй карту Luxmark-ом или что там есть под Винду для ОпэнЦЛ? Или для CUDA может есть отдельные тесты. В смысле определись - это Премъер с новой картой не хочет работать или сама карта под Виндой...
-
Олег, у меня Win10 после очередного обновления вообще отказывалась запускаться, выдернул батарейку, подождал, поставил и пошла родимая ошибки исправлять. Для чистоты эксперимента попробуй поставить другую карту (попроси у кого-то). А ведь еще дело в шине карты может быть, у тебя-то была, по-моему, 256-ти битная шина, а поставил 128. Хотя не должно быть такой разницы в работе. Посмотри выше сообщения, 960 карта показывается как 660. Может дурит нас Nvidia!!! Удачи.
-
Только что протестировал видеокарту программой FurMark Это стресс тест видеокарты, который еще называют "убийцей видеокарт" Так вот тест длился чуть более 1 часа. За это время никаких глюков, подтормаживаний или других проблем выявлено не было. Тест остановил, ибо прочитал в рекомендациях, что оптимальное время проверки - это 1 час. Так вот исходя из этого, я делаю вывод, что нелады видимо с премьером, который у меня установлен.
-
Видюха свежак... Всякое может приключится.. Думаю нужно с драйверами поколдовать. Не те использовать что венда автоматом подтянула, а зайти на Nvidia и там скачать свежайшие и наоборот старенькие. В том же порядке(при необходимости) пробовать их устанавливать. Только с перезагрузкой обязательно.
Ну и так... мало ли. Доп. питание правильно подключено на видюху?
-
Эта видеокарта без доп питания. Дрова автоматом подгрузились. Тест прошла на Ура! Видяха в порядке! Уверен на 200%! Кое как удалось вывести утренник на рендер. Параллельно запустил этот же утренник на ноуте Dell xps 15 9550 в максимальной комплектации. Так вот десктоп обгнал в рендере нотик, будучи запущен на рендер, с 20-ти минутным опозданием. ТОРМОЗА проявляются в самом премьере во время:
1. создание пиков исходников - НЕИМОВЕРНО долго грузит исходники.
2. Когда все загружено (часовой утренник с 3-х камер, премьер грузил примерно час!!!!!!!), то работать можно НО!!!! Не слишком активно двигая ползунок, иначе премьер подвисает и опять приходится долго ждать пока он отдуплится. Исходники использую те же самые, что и всегда. Севенции создаю с параметрами исходя из исходников, так что и этот фактор исключен.
В общем грешу только на кривизну премьера или системы....
-
Оба пункта, обозначенных, при которых наблюдаются тормоза, зависимы от дисковой системы... Может быть где-то шлейф зацепил, когда менял железяки, и контакт плохим стал на одном из рабочих HDD? Попробуй произведи, простое копирование файлов на внешний диск(если таковой имеется), со всех дисков по очереди.
-
Цитата:
Только что протестировал видеокарту программой FurMark
Олег, могу ошибатся (давно с Винды слез), но ФУЛЛМарк - не совсем то! Это тестилка 3Д графики (OpenGL). Тебе же нужно разобраться с "числодробилкой" (КУДА или OpenCL). Думаю дело в драйверах (на Маке тут вообще под каждую версию ОСи свой драйвер). А Премъер крайняя версия?
-
2015.3
-
Здрасьте Всем! Соглашусь с @
photik, копать в сторону HDD.. Тест индекса производительности показывает тоже в ту сторону..
-
Олег, вот второй день мозг паришь, ведь сразу сказал, переустанови венду!) :D
-
Володь! Не поверишь! Откатил систему до образа в котором работал начиная с того момента, как установил AP CC2015.3 В этой системе с 16-тью Гиг ОЗУ и видяхой GTX 560, я себя чувствовал более менее комфортно. В этой конфигурации исходники располагались на одном физическом диске, файлы кеш на другом физическом диске, система на третьем физическом диске, при чем SSD! Теперь имеем - ВНИМАНИЕ!!!
Та же система ,только ОЗУ - 32 Гиг, Видеокарта GTX 1060Ti (4 ГИГ ОЗУ вместо 1 ГИГ у 560-й) и САМОЕ ПРИКОЛЬНОЕ - исходники теперь на ОТДЕЛЬНОМ 4-м физическом диске SSD!!! МАТЬ ЕГО! И НИХЕРА бл!!! НИХЕРА я не получил прироста производительности! Долбанный комп **** (простите...наболело) дрыгатеся как каличная тварь! Еле -еле домучил утренник, вывел на рендер и он СУЧАРА вот уже почти третий час елозит часовой утренник из 3-х камер. НИКАИХ сторонних плагинов, НИКАИХ супер переходов, НИЧЕГО лишнего!!! 3 камеры и цветокор люментри.....Ну вот скажите!!!! Разве такое возможно! ? Да он бл...должен летать! Шурашать шо б аж ветер дул!...но на самом деле я имею полную жопу, а не рабочую машину...бл...
-
Олег, успокойся! Выпей 50 грамм и всё устаканится!!! С Новым Годом всех!!!:smile_az:
-
Уже, Юра, уже....:[
-
Так и продолжай в том же духе :smile_az::smile_az::smile_az:
-
@
Maksol,
Олег, не ты первый, не ты и последний. У меня у знакомых так было: взяли новый комп (самый мощный по тем временам) и тоже столкнулись с этой бякой: проведешь курсором по таймлайну и сразу получаешь зависание! Они помучались пару недель, да и отнесли все назад и сдали по гарантии, а потом пошли в другую фирму взяли похожую конфигурацию и все стало работать как часы без всяких косяков! Какой совет? Да с Новым Годом, все образуется! :smile_az:
-
Спасибо Юра, Спасибо Гена! Спасибо друзья! Спасибо за Вашу поддержку. Вчера, будучи в возбужденном :[ немного состоянии, я немного "пофранцузил" в своем посте...Вы уж простите меня друзья. Но лабы снять стресс, накатил таки пару-тройку рюмок коньяка....немного полегчало. А сегодня, ведь не зря говорят утро вечера мудренее, немного успокоился и решил спокойно покурить форумы, еще раз препроверить железо....в общем обратной дороги нет, так что будем разбираться. Вот буквально нарвался на
статью , в которой автор собрал МЕГА машину для монтжа в 4К. И что Вы думаете (в конце статьи его выводы), у него те-же грабли при скроле по таймлайну. В общем есть еще в чем разбираться и над чем работать. Если у кого возникнут мысли по теме, буду признателен. Но еще раз повторюсь - видеокарту выбирал, согласно рекомендациям (см. посты выше). И это рекомендация конца 2016 года!
-
Олег, я почему про версию Премъера спрашивал... Я отстал от прогресса (не слежу за новинками железа), но возникла мысль: а может просто "старый" Премъер не умеет пользоваться новой картой (либо в свежих версиях добавят поддержку либо на уровне драйверов решится)...
-
Та вот я и думаю пересесть на 2017 -й, но что то мало мне в это верится...
-
Цитата:
Видеокарта GTX 1060Ti (4 ГИГ ОЗУ
А что это за зверь такой ? На сколько я знаю у нВидии есть две ГТХ 1060,с 3-мя и 6-стью гигами оперативы на борту. Может имелось ввиду ГТХ 1050Ті ?
-
УПС! Конечно 1050Ti !!! GTX 1060Ti - это очепятка:smile_bn: (см. тему выше)) )
-
Поставил адоб 2017...Немного изменил конфигурацию компа. Мать, память и видеокарта - естественно все те же))) Вот только систему опять поставил с нуля на SSD Samung Pro 1Tb, для Кеша адоба выделил отдельный SSD Kingston 120Гиг. (ранее на нем стояла система) На нем будет только адобовский кеш. Ну и еще 2 винта обычных 2Tb и 1Tb. Попробую для начала исходники размещать на том же винте, что и система. Соответственно вывод на третий диск. Есть в наличии еще 1 SSD на 240 Гиг, (младшенький с него мультики на телике смотрел) но его система не видит(( Вот разживусь еще одним SSD - для исходников, думаю будет еще веселей. Но даже сейчас НЕ ХОЧУ СГЛАЗИТЬ - премьер стал летючий как стрела! Да и в целом как то веселее стало. Конвертил 1080р в SD при помощи TMPGenc 5.0, а как известно эта прога использует ускорение CUDA на всю мощь видеокарты, то скажу Вам это довольно весело наблюдать, как индикатор рендера живенько так стремится к нулю))))))) Но в этой всей истории для меня осталось загадкой одно необъяснимое для меня явление. У меня есть дистрибутив чистой официальной англоязычной винды 10. Я ее поставил на комп и что я только не делал но системы никоим образом не отображала видеокарту в диспетчере устройств. Там отображался стандартный графический адаптер, то бишь видеоадаптер материнки. И вот здесь я натанцевался с бубном на 10 лет вперед. Автоматом грузил дрова на видеокарту с оф. сайта Nvidia. Там есть опция определить автоматически конфигурацию системы. Так вот оно определят видеокарту, грузит дрова, но на этапе установки выдает сообщение что данное прогр. обеспечение не совместимо с версией винды! Обновлял конфигурацию оборудования, принудительно указывал путь к дровам, пытался установить с диска из комплекта с видеокартой...Выкурил все форумы по теме. Но так и не решил проблему. Видеокарта не отображалась в диспетчере устройств, соответственно дрова на нее установить не получилось. Как только поставил чистую русскую 10-ю винду, система сразу обновила дрова видеоадаптера, то бишь видеокарты, и все стало на свои места. При чем я не приложил к этому ни малейшего усилия. Все произошло автоматически. Вот такие вот дела. Кто в теме, было бы интересно все таки разобраться в чем может быть причина данного глюка.
З.Ы. По мере поступления новостей, буду держать Вас в курсе уважаемые друзья. И....Спасибо за добрые слова поддержки и участие! Вместе мы сила!
-
@
Maksol, Олег, ключевое слово:
Цитата:
систему опять поставил с нуля
как я и говорил:D
-
А я не понял в чем была проблема тормозов, потому что систему переустановил или адоб 2017 поставил O_o
-
Сережа, я не очень то силен в этих всех компьютерных железках и системе. Но могу сказать следующее. У меня есть образ чистой винды и образ системы со всеми установленными программами для работы. Как в одном и в другом случае тормоза наблюдались с новой видеокартой. Как в одном , так и в другом случае система ставилась на SSD. У меня вообще возникло такое подозрение, что премьер и TMPGenc 5.0 вообще не видели видеокарту. В третьем случае я поставил систему с того же дистрибудива, но только на другой SSD и уже с поставил СС2017.
-
Цитата:
такое подозрение, что премьер и TMPGenc 5.0 вообще не видели видеокарту.
Вот и я об этом речь вел.... Не работала "числодробилка"... Карточка интерфейс рисовала и в 3Д работала (DirectX или OpenGL). А вот CUDA (OpenCL) не работал...
-
Цитата:
А вот CUDA (OpenCL) не работал...
Но ведь отсутствие КУДА можно было сразу на таймлинии заметить(зеленая полоса)
-
А я видел ту зеленую полосу?:smile_wacko: Када моск отказывался понимать происходящее:D
-
Вот, блин,а сразу я постеснялся спросить про зел. полосу. Вродь вещь очевидная. Но с другой стороны-разве Куда влияет на прорисовку при загрузке исходников?
-
:smile_bn:
-
Добрый вечер.Подскажите по поводу данной конфигурации
компьютера для монтажа 4к и обработке в афтёре 60 кадров в сек.То есть интересует комфортная работа.Спасибо всем ответившим.
Процессор INTEL Core™ i7 6800K s2011-3, 6 ядер, 3.40GHz, нет, L2: 6x256KB, L3: 15MB, 14nm, 140W
Кулер для процессора ThermalTake Riing Silent 12 Red
Материнская плата MSI X99A RAIDER ATX, Socket 2011 v3, 3-Way CrossFireX,
Intel Core i7 processors in the LGA2011-3 package, SLI, Intel, Intel X99, DDR4, 128GB, 2x PCI-Eх 2.0 x1, 3 x PCI-Eх 3.0 x16, 1 x M.2, 1 x SATA Express, 1 x TPM, 10 x SATA III, 1-х USB 2.0, 1-х USB 3.0, UEFI, BOX
Модуль памяти для компьютера DDR4 16GB 2400 MHz HyperX Fury BLACK Kingston - 2шт
Видеокарта QUADRO P2000 5120MB PNY GDDR 5, 160 Bit, 4 x DisplayPort, кулер, радиатор - 570$
Накопитель SSD M.2 2280 512GB Samsung PCI-E 3.0 (x4), 3200 Mb/s, 1800Mb/s
Оптический привод DVD±RW LG
Жесткий диск 3.5" 2TB Seagate 7200 об/мин, 128 MB, SATA III, Enterprise Capacity
Корпус AeroCool PGS XPREDATOR Black
Блок питания CHIEFTEC 700W
ЦЕНА 2474
-
@
sheffvideo, мощности вашей конфигурации хватит и для выхода на орбиту..:D:smile_ay:
-
@
sheffvideo, карту, я бы предпочел 1080ti. На сколько я помню, она дешевле, но слабее чем QUADRO P2000, только на бумаге...
-
Блоки и кодирования NVENC на Quadro P2000 и GTX 1080 Ti одинаковые - и там и там архитектура паскаль. Такая же архитектура у GTX 1050. И есть мнение, что внутри одной архитектуры скорость кодирования одинаковая. Поэтому, вызывает большое сомнение целесообразность покупки видеокарты за 30-50тыс.
Может Affter по другому работает/считает, проясните ситуацию.
Очень актуально - сдохла видюха, трудившаяся 7 лет. - GTX470. ФуллХД сжимала в реалтайме.
Цитата:
Начиная с архитектуры Kepler (6хх и 7хх) NVIDIA разместила на кристалле специальный блок, занимающийся только кодированием видео в ряд форматов, наиболее важный из которых на практике это h.264. Использовать это в Премьере можно плагины экспорта NVENC_export, Voukoder или фрейм-сервер с выводом в программы-конвертеры.
Блок кодирования NVENC на видеокарте одинаков на всех моделях одной архитектуры*. Для Kepler его пиковая производительность заявлена как 8-ми кратная к реалтайму, т.е за минуту времени можно закодировать 8 минут видео 1080p/30 fps. Для Maxwell производительность удвоена, плюс добавлен YUV4:4:4, для Maxwell 2 (GTX 9x0, GT 750Ti) добавлено кодирование 4К/60fps, добавлен h.265 (плагин NVENC_export умеет кодировать в HEVC Main Profile). Pascal кодирует ещё в два раза быстрее, поддерживается 10-бит HEVC и 8K в h.264. Пиковая производительность достигается на Base профиле, на профиле High**, производительность будет несколько ниже, но не хуже реалтайма.
-
@
shell, если речь про обычное кодирование, то 1050 хватает за глаза, особенно если речь идёт про тандем с Intel i7(который всё равно заберёт львиную долю "труда" на себя). Совсем иной расклад при рендере эффектов и слоёв. Там на первое место выходят ширина шины и оперативка GPU... И этой информации в таких сухих цифрах:
Цитата:
заявлена как 8-ми кратная к реалтайму, т.е за минуту времени можно закодировать 8 минут видео 1080p/30 fps. Для Maxwell производительность удвоена, плюс добавлен YUV4:4:4
нет и не может быть, потому, что эти цифры очень сильно "плавают", в зависимости от содержимого секвенции/композиции.
-
Помнится, раньше выкладывали короткую секвенцию с исходником и делали табличку - время кодирования на разных компах.
Как временное решение, воткнул в комп видеокарту с компа жены - GT630 - с цветкором кодирование чуть лучше реалтайма, GPU грузит на 95%, при кодирование секвенции вообще без каких либо эффектов (над таймлайном никакой полоски нету) - загрузка GPU - ноль, CPU кодирует почти три реалтайма. Хотя, в статье сказано, что тоже должен трудиться GPU. Отчего же так?
Цитата:
эти цифры очень сильно "плавают", в зависимости от содержимого секвенции
Возможно, имеется ввиду что то другое? Ведь сначала обрабатываются эффекты, а потом уже материал сжимается h264? Или как? Тогда получается, что во время нашего вывода карта просчитывает эффекты, а не кодирует само видео?
Если следовать логике и тому, что карта имеет отдельный чип отвечающий за кодирование, то секвенция без эффектов должна просчитываться в h264 тоже посредством GPU, но почему тогда загрузка GPU ноль?
-
Ну уж не знаю, в какой статье и какие там чипы....))) Мои наблюдения, чисто практического характера. И то, что я написал выше, прямо-пропорционально твоим наблюдениям...
========================
Цитата:
при кодирование секвенции вообще без каких либо эффектов (над таймлайном никакой полоски нету) - загрузка GPU - ноль, CPU кодирует почти три реалтайма
VVVVVVVVV
Цитата:
если речь про обычное кодирование, то 1050 хватает за глаза, особенно если речь идёт про тандем с Intel i7(который всё равно заберёт львиную долю "труда" на себя)
========================
Цитата:
GT630 - с цветкором кодирование чуть лучше реалтайма, GPU грузит на 95%
VVVVVVVVV
Цитата:
этой информации в таких сухих цифрах:
.......
нет и не может быть, потому, что эти цифры очень сильно "плавают", в зависимости от содержимого секвенции/композиции
Здесь имеется ввиду, что не все эффекты может просчитать GPU-ускоритель. Те, что просчитываются именно им, помечены специальным значком в списке эффектов... Над остальным будет трудится CPU, какой-бы супер-пупер мощной не была бы видеокарта.... И ещё, на разных эффектах, разный КПД карты...
Кроме того, при выборе параметров рендера, нужно учитывать такие "узкие" места, как всевозможные профили/цветовые пространства выходного файла, и прочую, почти научную требуху(о них как раз идёт речь в твоей цитате)... В одном варианте GPU "включится" в процесс, в другом нет....
Я с этим никогда не заморачивался, по той простой причине, что рендер эффектов, всегда ЗНАЧИТЕЛЬНО дольше простого пересжатия....