Видеокарта

Автор
Сообщение
На сайте c 09.09.2010
Сообщений: 4921
m.s.k.
Цитата ManOnlyOne:
компа. Шас стоит 770gtx, проц. amd fx-8350, 14гб Озу. При работе в максе уже на 3-4мл. полигонов начина

Проф карты в максе будут за эту же сумму медленее игровых. Для начала попробуйте удалить папку ENU чтоб понять програмнный это баг или же оперативная память

На сайте c 04.09.2008
Сообщений: 13907
Уфа

большое спасибо всем за ответы и мнения)

sten  у нас 380 17 стоит) если найду дешевле, возьму

На сайте c 14.12.2014
Сообщений: 185
Москва
Цитата kingstones:
Цитата ManOnlyOne:
компа. Шас стоит 770gtx, проц. amd fx-8350, 14гб Озу. При работе в максе уже на 3-4мл. полигонов начина

Проф карты в максе будут за эту же сумму медленее игровых. Для начала попробуйте удалить папку ENU чтоб понять програмнный это баг или же оперативная память

Да действительно после удаления папки ENU, вюпотрт стал шустрее) удалось 11 мл. полигонов накрутить прежде чем fps упало)

Через gpu-z поромониторил, больше всего загружает видео память, возможно если взять GTX с большим объемом видо памяти то проблема будет решена.

3db32029044bb3e886846acce0a34010.jpg

На сайте c 28.05.2011
Сообщений: 379
Иваново
Можно поподробнее для тех кто в шатле: что за папка такая ENU ?!
На сайте c 06.08.2013
Сообщений: 1895
Москва
ManOnlyOne, а чего за сцена? сколько объектов в ней и текстуры какого разрешения?
На сайте c 19.04.2015
Сообщений: 13
Москва

Простите за глупый вопрос :) (прочитала кучу постов и после этого окончательно запуталась)

В каких ситуациях 3D MAX + VRAY будут использовать видеокарту?

Стоит ли смотреть в сторону профессиональных видеокарт? Или дорогих игровых? Или лучше деньги потратить на процессор?

(Я занимаюсь архитектурной визуализацией)

На сайте c 29.03.2013
Сообщений: 266


Мы вам не подходим. Идите перечитайте, то что предложили.

Дата выдачи:
06.08.2024 17:58:08


Пожизненный бан

Elena.D если вы еще скажете что имеете сейчас тогда намного легче будет давать совет

Elena.D если вы еще скажете что имеете сейчас тогда намного легче будет давать совет

На сайте c 19.04.2015
Сообщений: 13
Москва

kinjal вообще цель моего вопроса была скорее для саморазвития чем для подбора конкретного железа.

Давайте попробую пояснить что меня интересует:

Я прочитала несколько постов в которых были затронуты темы GPU рендера (NVIDIA CUDA)

В одних из которых говорилось что при рендере видеокарта не используется.
В других что при помощи видеокарты можно рендерить в 10 раз быстрее. (за счет ее 80..100 ядер)
В третьих говорилось что видеокарта нужна при моделировании, а если она слабая то все будет виснуть

Как на самом деле обстоят дела?

На сайте c 24.06.2014
Сообщений: 4508

Elena.D

3Ds Max использует Видеокарту в основном в Вьюпорте. Частично использует видеокарту еще в MatEditor-е (хардверные DX-шейдеры, навряд ли вам такое нужно). В Slate режиме MatEditor-а видеокарта обрабатывает превью текстурок и процедурных карт и работает над антиалиасингом шрифта а вот в Compact-режиме MatEditor вообще не использует видеокарту и работает полностью через процессор. В UVWEditor-е к примеру видеокарта не работает. А вот инструмент для рисования "Viewport Canvas" - по полной видеокарту использует.

Что относительно V-Ray :

Продакшн "VRayAdv" НЕ использует видеокарту вообще, и работает полностью на процессоре.

Реалтаймовый "VRayRT" МОЖЕТ работать через OpenCL/CUDA (GPGPU-вычисления видеокарты), НО так-же он умеет работать и через процессор. Нужно оно вам или нет - понятия не имею. Я так и не нашел применения VRayRT лично для себя. Он ограниченный, упрощенный, не-стабильный.

OFFTOP

Обязательно учтите что большая часть инструментария 3Ds Max-а работает на одно-потоке (т.е - одном модуле/ядре/потоке). Что немаловажно для комфортной работы. Просто как за пример возьмем : "AMD FX-8350" [4 модуля, 8 ядер, 8 потоков], не идеальный вариант для тяжелых модификаторов и инструментов в 3Ds Max (я не имею ввиду что это плохой процессор для 3DsMax). Но он медленнее будет в сравнении с тем-же "Intel Core-i5 4460" у которого [4 модуля, 4 ядра, 4 потока], и соответственно один поток мощнее. Но все это относительно самого комфорта сборки сцен, моделинга, и работе в целом. V-Ray-ю то по-барабану будет, он использует весь потенциал процессора и все его потоки и эти процессоры +/- сравняются на этапе рендера. Да и к тому-же - если у вас бюджет позволяет брать Core-i5/Core-i7, то можно и не беспокоиться на эту тему, так или иначе одно-поток у Intel будет хорош smiley-smile.gif

IMHO

Для АрхиВиза (если вы умеете грамотно собирать сцены и работать с 3DsMax-ом) можно вообще забить на видеокарту, работать с (BoundingBox-ами/Слоями/Адаптивной-Деградацией/Упрощенными режимами вьюпорта/BackfaceCull-ом/Отключать текстуры, Блики, Переключить ОС в Классический режим оформления). В общем делать все что-бы избежать в какой-то степени нагрузки на видеокарту. По итогу на какой-нить старенькой GTX 560 можно спокойно собирать тяжелые сцены. В таком-то раскладе лучше уж вложиться в процессор. Я вот к примеру пару месяцев работал на "GeForce 8500 256MB"под два FullHD монитора рабочие столы Win7 сжирали ~150/256MB VRAM и ничего страшного, мне хватало остатка памяти на 3Ds Max 2014. Собирал интерьеры по ~20кк трисов (средненькой тяжести интерьеры), да приходилось проделывать все выше-описанное. Сижу сейчас на AMD R9 380x, лично для меня от видеокарты в 50-раз более мощной и жирной - ничего не изменилось, просто можно забить на все эти дела которые приходилось делать, но продолжаю их делать по-привычке smiley-biggrin.gif

На сайте c 23.06.2012
Сообщений: 63
Винница
Подскажите, что лучше взять печ 970 или r9 390? Буду благодарен за совет.
На сайте c 09.09.2010
Сообщений: 4921
m.s.k.
R9
На сайте c 24.06.2014
Сообщений: 4508

Bairdesign

Довольно непростой выбор... На стороне 970-ой - широкий выбор моделей от дешевых 'компактных обрубков' до гигантов с тремя 'пропеллерами', широкий ценовой диапазон при идентичных (базовых/заводских) мощностях, а вот 390-ые не отличаются ни широким выбором ни компактностью. Ну и конечно-же у 970-ой 150W вместо 275W у 390, довольно приличная разница по электро-потреблению и соответственно по тепловыделению, собственно по этому у 390 почти все модели идут с 'солидной бандурой' в виде системы охлаждения... Ну и про неполноценные 4GB VRAM у 970-ой уже все давным-давно в курсе , правда большинство современных игр попросту НЕ используют эти медленные 512MB у 970-ой, вместо этого видят лишь 3584MB VRAM. Например в CoD:BO III нельзя выставить некоторые настройки которые требуют минимум 4GB VRAM под FullHD именно из-за этой проблемы. Вообще я-б не сказал что это проблема прям таки критическая, видеокарта все-равно остается одной из самых популярных и достаточно солидных под FullHD. Вот у 390-ой вообще 8GB VRAM на борту. Излишество ? - Да, несомненно под FullHD это излишество. 4к ? Ну так 390-ая не тащит 4к с настройками которые выжрали-бы столько видеопамяти. Тащем-то под 1440 - 8GB все-равно многовато будет. Получается как-бы и много VRAM и с запасом, только толку от этого мало. С другой стороны некоторые современные игры (Far Cry4/Dying Light/CoD:BOIII/AC:Unity/Shadow of Mordor) способны даже в FullHD сожрать почти полные 4GB VRAM. Получается что игры в 2016-2017 по-идее будут жрать и все 6GB под FullHD, только вот останется-ли 390-ая актуальной к таким-то играм...

В общем есть свои достоинства и недостатки у них. В Гугле, Ютубе - есть масса обзоров/сравнений, взвешиваний За и Против, ведь 970 vs 390 - очень популярная тема для обсуждений. Я-бы взял все-таки Radeon R9 390, от любого издателя, так-как по-сути даже у самого дешевого варианта все-равно крутая система охлаждения будет у 390-ой. Да и современные видеокарты (не-референсы) все-равно все поголовно холодные. Ну, исключением может быть разве что 'одно-пропелерный обрубок' 970-ой который может до 87 прогреваться в играх, зато дешевый.

На сайте c 23.06.2012
Сообщений: 63
Винница
Цитата kingstones:
R9

Ок. Спасибо. Уже много лет пользуюсь Нвидиа. Первая была в 2000 году GeForce 256 )) Потом fx5200, 9800Gt, MX 440, 660 Ti 3gb (эта сейчас стоит). Радеона не было никогда. Всегда предвзято к нему относился. Помню было время плевались в сети на глючный каталист... Поэтому пара вопросов.

1.Как сейчас дела с драйверами у радеона?

Ну и CUDA вроде как у нвидиа большой плюс. Часто приходится композить в афтере и монтажить в премьере.

2.Как Радеон там справляется? А так же, как справляется в RT вирэя? Ну вобщем там, где действует CUDA.

Я б не раздумывая взял 970, но были отзывы о урезанной памяти на 500 метров в этой серии (т.е. 3,5 гига реальных), + какие-то траблы с поддержкой будущего 12 директа.

В r9 390 привлекает 512bit и 8гиг памяти.

3. Хватит ли мне моего блока питания Chieftec A-135 APS-750CB 750W, чтоб прокормить прожорливую r9 390.

Спасибо за ответы.

На сайте c 09.09.2010
Сообщений: 4921
m.s.k.
Однозначно R9 блока хватит и на 600вт, CUDA ? зачем простите вам это ? Все покупают в надежде что тогда то оптимизируют под макс нормально но этого никогда не будет. Только берите не MSI
На сайте c 24.06.2014
Сообщений: 4508

Bairdesign

Вот на 60-ой странице писал по поводу Crimson-Драйверов/CUDA/OpenCL и совместимостью с nVidia-фичами в играх : http://3ddd.ru/forum/thread/show/vidieokarta/60#post736333 

Сам сидел по большей части на nVidia-картах, но на втором игровом компе были и Радеоны.

"Riva TnT2 Tornado" не в счет smiley-biggrin.gif  8500, Radeon x1600-> 9600, 3870 -> GTX275, 4890 -> GTX570

Сейчас вот пересел на свежий R9 380x, пока никаких нареканий, ни в 2D/3D софте ни в играх.

На сайте c 23.06.2012
Сообщений: 63
Винница

Спасибо kingstones и Earanak.

2kingstones - а почему не MSI? Я как раз хотел вот такую брать - AMD Radeon R9 390 8Gb GDDR5 Gaming MSI (R9 390 GAMING 8G) Вроде по обзорам ничё такая. Да и MSI вроде хороший бренд. У самого мать MSI очень радует.

И если не MSI то что? Гигабайт? Вот такую ещё смотрел GIGABYTE Radeon R9 390 1025Mhz PCI-E 3.0 8192Mb 6000Mhz 512 bit DVI HDMI HDCP (GV-R939G1 GAMING-8GD)

Но чё-то MSI визуально привлекательней. Или Асус вот такой ASUS Radeon R9 390 1050Mhz PCI-E 3.0 8192Mb 6000Mhz 512 bit DVI HDMI HDCP (STRIX-R9390-DC3OC-8GD5-GAMING)

На сайте c 09.09.2010
Сообщений: 4921
m.s.k.
Цитата Bairdesign:

Спасибо kingstones и Earanak.

2kingstones - а почему не MSI? Я как раз хотел вот такую брать - AMD Radeon R9 390 8Gb GDDR5 Gaming MSI (R9 390 GAMING 8G) Вроде по обзорам ничё такая. Да и MSI вроде хороший бренд. У самого мать MSI очень радует.

И если не MSI то что? Гигабайт? Вот такую ещё смотрел GIGABYTE Radeon R9 390 1025Mhz PCI-E 3.0 8192Mb 6000Mhz 512 bit DVI HDMI HDCP (GV-R939G1 GAMING-8GD)

Но чё-то MSI визуально привлекательней. Или Асус вот такой ASUS Radeon R9 390 1050Mhz PCI-E 3.0 8192Mb 6000Mhz 512 bit DVI HDMI HDCP (STRIX-R9390-DC3OC-8GD5-GAMING)

знакомый купил MSI гефорсе и радеон для разных компов обе згрорели спустя пол года. Это именно по видеокартам msi неочень

На сайте c 24.06.2014
Сообщений: 4508

Да у любой видеокарты/издателя и модели может быть косяк. От этого никто и никак не застрахован. Можно взять какой-то Manli, Palit, Inno3D и видеокарта проживет 5 лет в разгоне с ацким перегревом мосфитов, видеопамяти и GPU. А можно взять какое-то топовое издание от ASUS/XFX/Sapphire/Gigabyte/MSI и видяха приедет УЖЕ бракованной или сдохнет быстро. Тут как уж повезет, не стоит судить по нескольким случаям.

Даже взяв две абсолютно идентичных модели с одной и той-же партии вы все-равно рискуете получить один удачный экземпляр а один неудачный. Например в котором будет GPU с ASIC Quality низким, 50% к примеру, а другой вариант будет 90%. Соответственно у 50% будет 'volt leak', чуть больший нагрев, более нестабильные частоты, ограниченный разгон... И в целом такой GPU вероятнее всего проживет меньше чем вариант с 90%. Либо приедет видяха которая поработает недельку в нагрузке, и у нее отвалиться GPU (code 43), от неудачного припоя GPU никто не застрахован.

По поводу ASIC Quality, слыхал что все GPU которые получают оценку ниже 50% - считается браком, 50-60% отправляют второсортным вендорам. Все остальное идет топовым вендорам. А экземпляры которые выше 'условной нормы' отсеивают под OC-издания видеокарт. Не знаю так-ли оно, но судя по 'форумам/отзывам/статистике' вполне похоже на правду.

P.S. У меня Palit GTX 570 попался с 45% ASIC Quality, прожила почти 5 лет и отвалился GPU. Неплохо.

На сайте c 23.06.2012
Сообщений: 63
Винница
Цитата kingstones:
знакомый купил MSI гефорсе и радеон для разных компов обе згрорели спустя пол года. Это именно по видеокартам msi неочень

ok. спасибо. Наверное, возьму Гигу. Крайняя 660ti 3Gb именно Gigabyte была. Нареканий на работу за 3 года не было.

2Earanak Да, согласен. От брака никто не застрахован. Хотя некоторые бренды всё же менее подвержены неприятным тенденциям. Кстати когда-то именно Palit 9800 GT отработала 4 года "от звонка до звонка", потом осталась в компе у родителей и до сих пор там работает) Хотя сейчас Palit не рискнул бы взять...

На сайте c 09.09.2010
Сообщений: 4921
m.s.k.
Цитата Bairdesign:
Цитата kingstones:
знакомый купил MSI гефорсе и радеон для разных компов обе згрорели спустя пол года. Это именно по видеокартам msi неочень

ok. спасибо. Наверное, возьму Гигу. Крайняя 660ti 3Gb именно Gigabyte была. Нареканий на работу за 3 года не было.

2Earanak Да, согласен. От брака никто не застрахован. Хотя некоторые бренды всё же менее подвержены неприятным тенденциям. Кстати когда-то именно Palit 9800 GT отработала 4 года "от звонка до звонка", потом осталась в компе у родителей и до сих пор там работает) Хотя сейчас Palit не рискнул бы взять...

Так же чтоб точно быть уверенным, можете на этом калькуляторе посчитать нужную вам мощность БП http://www.enermax.outervision.com/  +50вт запаса докиньте для уверенности и все

Читают эту тему: