Сообщения | Дата |
---|
AMD FX-8350 или Intel Core i5-4570
refik
Да, скорее всего перегрев мосфетов. На "ASRock 970 Pro3 R2.0" - нету вменяемых радиаторов на силовых элементах, а те радиаторы что есть, на северном мосту я так понимаю - расположены сразу над видеокартой и довольно хиленькие. Соответственно Deep Frost 2 кулер тут никак не помогает и им охлаждаться. Желательно воткнуть один ~80мм вентилятор на цепи питания и должно быть норм. Получается у вас сейчас силовые элементы питания никак и ничем не обдуваются, и им тепло попросту некуда отдавать. В тех видео что я кидал постоянно упоминаться данная проблема.
Обычно даже в бюджетных материанках на них лепят добротные радиаторы, а у вас их нема.
Вот к примеру — [ССЫЛКА НА КАРТИНКУ], мать-плата до 100$. Но даже в таком случае лучше воткнуть вентелятор, а перед этим поменять силиконовую прокладку заводскую и проверить нормально ли там все приклеено. А то в конкретном случае с M5A97 радиатор большой-красивый, а клеят его фигово.
| 15.02.2016 |
AMD FX-8350 или Intel Core i5-4570
refik, первым делом нужно включить HPC-Mode в Биосе ! Что-б частота и вольтаж по ядрам не падал.
А если продолжит падать то нужно убедиться нету ли перегрева мосфетов на мать-плате и самого процессора. При 72+ градусах начинает срабатывать встроенная защита. На пример у бюджетных ASUS мать-плат - датчики на мосфетах после 55 градусов уже начинают сбрасывать напругу.
Тут к середине видео по-подробнее про сброс частоты / напряжения ядра - https://youtu.be/CBpl32Ko_v8
В стандарте на 8350 у меня тоже сбрасываются частоты и напруга, и плавает частота от 3900 до 4200.
После всех настроек, доп охлаждения мосфетов даже на 5.0Ггц и частоты и вольтажи стабильные. Но это уже "совершенно другая история" ну и тут еще че-нить по этой-же теме можно найти "ссылка". Как только автор этого канала не разгонял и не разбирал все нюансы 8350. Но это наверное 3 основных видео которые необходимы для раскрытия потенциала 8350.
Еще нужно быть уверенным не проседает ли ваш БП. Так как перегрева может не быть, настройки все в Биосе под рендринг и стабильность. А у БП может прост проседать линия по процессору. Хотя это довольно маловероятно. Я вот с 2012 года сижу на средненьком БП в 600w фирмы HighPower, он-же Sirtec он-же Chieftec. И постоянно у меня прожорливые железяки на нем стояли и разгонами я баловался и комп 24/7 напрягался. Ну вот спустя года эдак 3-4 начались просадки по всем линиям, 12v до аж до 10.9 проседал. 5v до 4.2v проседал. Во время нагрузок/стресс тестов/тяжелых игр. Поменял БП - все в порядке, в тех-же условиях просадки до 11.9 / 4.95, что более чем нормально.
| 15.02.2016 |
Рекомендованные конфигурации компьютеров
AMD Zen
Старший процессор на этой архитектуре будет на 32-х физ ядрах с мультитредингом, 64 потока ?
Это в совокупности с усилением ядер, повышение IPC на 40%, 14nm. Может они сделают его по форме как AMD Opteron-ы, прямоугольным. Фигли, 220+ TDP это-ж 'ацкая сатана', как AMD FX-9000 будет с водоблоком продаваться ? А если разогнать ? Может они его сделают размером с пачку сигарет ?
А сколько стоить будет это чудо, 1000$ ? Эх, было бы круто заглянуть в будущее и посмотреть че там за монстр выйдет у AMD. Не хотелось-бы сейчас взять 5820K а потом жалеть что не докинул денег до 'чего-то эдакого'.
| 15.02.2016 |
Совет про "Высокий приоритет" прост пушка Может помогать лишь в том случае если стоят проги типа TuneUP/Auslogic Boostspeed, которые на автомате могут фоновым/системным процессам влепить высокий приоритет а 3Ds Max-у наоборот низкий. Да и то это может произойти если руки не из того места растут а в настройках полазать так и тянет Только дело в том что даже на низком приоритете 3Ds Max будет 100% процессора выжирать в простое (Idle). Настройка Low Thread Priority в V-Ray, тоже на скорость рендера не влияет, но не бесполезна. Второе окно 3Ds Max-а будет отжирать мощности лишь когда вы что-то там делаете. Так-то можно 10 окон запустить с высоким приоритетом и все-равно 100% мощностей уйдет на окно с рендером, и по-барабану на приоритет будет. Если у кого-то вся эта система работает как-то ИНАЧЕ, то у вас явно что-то не в порядке.
Единственное 'профитное' применение всей этой теме это ставить — Низкий Приоритет в диспетчере задач + Low Thread Priority в V-Ray, и параллельно с рендером можно в игры играть спокойно, даже в довольно требовательные игры. Все свободные процессорные мощности будет выжирать рендер, а игра будет брать ровно столько сколько ей нужно. Потеря в FPS будет но довольно незначительная, если у вас конечно не какой-то Core-i3/Pentium/Celeron/Athlon и тд.
Кстати что-б не делать это вручную можно в реестре сделать 'ключ' на автоматическое назначение низкого приоритета 3Ds Max-у.
| 12.02.2016 |
Помогите разобраться с шумами новичку
Corona - да, такой рендер что изначально предназначен что-б был минимум допущений при рендере, старается не использовать всякие интерполяции, почти в чистом виде Brute-Force, от того и шумы, даже при достаточно долгом рендере. Ну влияние на время рендера оказывает Альбедо, постановка 'правильного' освещения, и тяжесть материалов и сцены в целом. Но это уже 100 раз обсуждалось на форуме.
Вообще я-б мелкие (незначительные) шумы убирал-бы через ДеНойз фильтры в Photoshop-е. Сразу скажу что стандартные фильтры никуда не годятся. Но вот какой-нить DeNoise от Topaz Labs - вполне себе справляется. Удобные крутилки, возможность восстановить детали, снять блюр после де-нойза, устранить конкретно цветовые шумы, убрать шумы в тенях либо пересветах. Удобная в общем-то штука. Чаще стараюсь выборочно через маски убрать шумы а не со всей картинки. Впрочем, часто только основную крутилку использую в нем при 2000px рендере по длинной стороне - 0.05 хватает.
http://3ddd.ru/blog/post/svinka_pieppa_i_odin_iz_sposobov_popytat_sia_ubrat_shum
| 25.01.2016 |
Ну сделаете вы на 1 клик больше чтоб увидеть превьюшку, смертельно что-ли.
Впечатление сложилось будто-бы вы ищете плагин который вам прям покажет всю вашу гигантскую библиотеку материалов в красиво оформленном интерфейсе, с миниатюрами и превьюшками. И вы будете сидеть с моноклем, в фраке и с цилиндром любоваться ими подбирая из 1000 тот самый материал который вам нужен Я-б не морочил себе голову и пользовался стандартным "Слейтом".
Ладно, я уже все сказал, добавить мне нечего...
| 23.01.2016 |
В своей библиотеке в этом плагине нету Миниатюр (Thumbnails-ов). Только список + описание (Notes), выберираете свой материал, отображает вашу превьюшку. ПКМ по превьюшке - отображает ее в полном размере.
Я вообще ума не приложу нафиг вам сдались эти кастомные превьюшки. Даже при 200 уникальных материалах достаточно одного описания. К тому-же это еще то дело каждую превьюшку рендрить, сохранять и подключать к материалу. У меня вот своих заготовок целая пачка одним сплошным списком и без всяких превьюшек, но я знаю какой из них как выглядит и где его можно применить. Например с таким названием можно обойтись и без превьюшки - "WhiteOak, Semi-Bark, Semi-Satin (Close-Up Tiled)".
| 23.01.2016 |
Ко всем заготовленным материалам есть превьюшки в достаточно высоком разрешении. Мини-Превьюшки (Thumbnails) можно крутилкой увеличить от 100px до 200px. Но если правой кнопкой мыши клацнуть по самой верхней превьюшке то ее развернет на весь экран (~1000px). Получается каждый заготовленный материал можно удобно рассмотреть вблизи и детально.
| 23.01.2016 |
Trofei, принимает он любые материалы и карты. Версии с заготовками для Короны и Вирея - разные.
"Material Repository Pro" — Основа. Без заготовок, только сам плагин.
"Corona Material Presets Pro" — Основа + Короновские заготовки.
"V-Ray Material Presets Pro" — Основа + Виреевские заготовки.
| 23.01.2016 |
Trofei, да какой там урок-то.
Просто вкладка сверху есть - "User Library". Выбираете, создаете разделы, выделяете материал в Mat-Editor-е, нажимаете "+" (плюсик, Add material). Все. Ваш материал в каталоге. Если хотите превьюшки добавить к нему - выделяете его, клацаете по кнопке "Import..." в области "Import Preview Image". Тащем-то вот и все. Никаких тут уроков не нужно. Всякие Мульти-Сабы, неродные для макса Плагин-Ноды (типа Беркон-Карт), все это дело плагин подхватывает и работает нормально.
А вкладка MTL Lab отвечает за сцену под рендер превьюшек. Правда нафига эти превьюшки делать-то. Легче в трех словах в названии описать что это за материал и достаточно будет.
| 23.01.2016 |
Trofei
http://www.sigershop.eu/store/downloads/v-ray-material-presets-pro-max/
Есть свой набор заготовок, под Legacy-шейдеры (старые BRDF-модели), и новые под "V-Ray 3.x", BRDF-GGX. Можно удобно дополнять каталоги своими материалами/заготовками. Можно переносить материалы с одной сцены в другую 'на лету' так сказать. Просто открыв два 3Ds Max-а и через этот плагин гонять материалы туда-сюда.
UPD — Пока писал сообщение вы уже упомянули этот плагин. Да, превьюшки для материалов своих - можно добавлять. Более того - вместе с плагином идет настроенная сцена для рендера этих самих превьюшек.
| 23.01.2016 |
Проблема с созданием карты нормалей для лоу-поли модели.
Да все верно вы сделали ! Cage - просто необходимо использовать при запекании AO/Normal и других карт. В любом софте, будь то 3Ds Max, Maya, Blender3D, xNormal, XSI(Softimage) - не важно. Все эти программы поддерживают Кейджи которые призваны чтоб избавиться от артефактов, искажений.
Несколько нюансов :
1.) Очевидно что Кейдж не должен пересекаться с Low-Poly/High-Poly. Иначе артефакты.
2.) Количество полигонов и топология Кейджа должна на 100% соответствовать Low-Poly модели.
3.) Кейдж должен максимально плотно прилегать к Low-Poly/High-Poly (но не пересекаться с ней). Если его сильно 'раздуть', то есть чем дальше будет поверхность кейджа от поверхности геометрии - тем больше будет искажений (потянутостей, складок, вмятин, наложения деталей друг на друга).
4.) Если вы запекаете High-Poly на элементарную Low-Poly, например на Plane/Box/Сферку, или что-то совсем простенькое типа цилиндра - не обязательно использовать Кейдж. Почти в любом софте для бейка есть настройка по типу xNormal-а - 'Maximum ray distance' которой можно регулировать автоматическую генерацию кейджей. Придется поэкспериментировать, да... но это как запасной и халтурный вариант.
5.) В особо сложных ситуациях (изредка) приходиться вручную тягать/править кейдж, подгонять его. Но порой и этого не достаточно. И легче пару раз перерендрить результат с своим кейджем, с автоматическим, с автоматическим но подкрученным ray-distance. А потом из 3-4 результатов склеить один нормальный вырезая проблематичные места у каждого из вариантов в Photoshop-е. Так делают часто и это нормально.
P.S. По xNormal/Бейку/Текстурингу, и многим моментам рекомендую урок от Character-Артиста с Blizzard-а "Hai Pan", курс называется — "3D Character Art for Games". Там 6 частей, ну первые 2-3 не обязательно смотреть там про ZBrush/пропорции и дизайн. Все остальное - четко структурированная и концентрированная информация по всем этим делам. На торрентах этот курс уже слит если что.
| 22.01.2016 |
Проблема с созданием карты нормалей для лоу-поли модели.
Чет я вообще не вижу ни одного упоминания Кейджей в вашем посте. Пятна характерны для проблемы связанной с пересечением кейджа и High-Poly/Low-Poly. Да и вообще на этом этапе можно запороть все качество карты нормалей, ведь с кривым/раздутым кейджом будут - пятна/искажения/артефакты.
Вы кейдж то делали в xNormal-вьюпорте или отдельно моделили его в 3Ds Max а потом через плагин экспортировали в xNormal ? В тех местах точно кейдж не пересекается и не 'кучерявит' геометрию ?
P.S. Edge Padding в 16 пикселей. Фига-себе, а зачем так много ? AA - 1 ? Ну вы конечно сэкономите немного времени на просчете но карты нормалей быстро считаются, лучше уж х4 поставить но подождать на 2 минуты дольше.
| 22.01.2016 |
При 800% приближении четко видно что дело в Anti-Aliasing-е, но сами карты нормалей идентичные. Это-же очевидно, особенно если на грани посмотреть. Более смазанный результат и более шумный, смешивает цвета на этих шумных гранях - хуже/лучше. Ну и еще бордеры по-другому скругляет, это да единственное отличие
Сверху скан-лайн, снизу V-Ray :
Соответственно если накрутить нормальный сэмплинг/анти-алиасинг - результат будет идентичным.
Ах. Да — Забыл отметить что настройки V-Ray-я влияют на качество AA при бейке, естественно. Можно вообще Progressive-Сэмплером бейкать Ну лучше конечно-же будет Fixed использовать с неплохими настройками. Fixed - 8, к примеру. Да и Color-Threshold тоже гляжу влияет на сэмплинг при бейке. И на вкус Фильтр еще можно влепить что-бы сделать карту нормалей более мягкой или резкой. Для резкости можно использовать Catmull-Rom. При заниженных настройках конечно шумные карты выходят у V-Ray, плохо смешанные цвета, зато рендрит быстро. Скан-лайну пофиг, он какой-то более агрессивный сэмплинг/анти-алиасинг использует.
| 16.01.2016 |
Maketer, есть масса вариантов для Batch-Экспорта в OBJ/FBX, вы-же не будете вручную это делать.
Scanline от V-Ray отличается в бейке нормалмап ? — Ясно-понятно. Проехали...
| 16.01.2016 |
Как карта нормалей может быть ЛУЧШЕ или ХУЖЕ ? Если кейдж нормально настроен - то результат будет абсолютно идентичен, будь то бейк в Blender, Maya, 3Ds Max или xNormal. Алгоритмы снятия карт нормалей +/- везде одинаковые. За последние 2 года что-то изменилось ? Разница может быть разве что в инвертированных каналах, и... Уровне Anti-Aliasing-а x1/x2/x4 и тд...
Если рендрить сложную геометрию БЕЗ кейджей - то, ясное дело разница будет между разным ПО. Но это надо быть совсем отчаянным что-б полагаться на автоматику. Ну или это что-то совсем простое типа плейнов.
Maketer, да. Можно. Хоть с 1000 хайполи на 1000 лоуполи.
| 16.01.2016 |
OFFTOP - Для новичков к работе с xNormal могу посоветовать урок от Character-Артиста с Blizzard (Hai Phan). В 5-ой и 6-ой части он подробно разбирает множество проблем которые могут возникнуть при бейке нормалей, и показывает как адекватно работать с xNormal в целом. Курс называется "3D Character Art for Games". Первые 3-4 раздела урока можно пропустить.
HarrierII, и чем-же 'лучше' ? Я когда Game Environment Art-ом занимался бейкал и в Maya, и в 3Ds Max, но в итоге перешел на xNormal. Никаких проблем не возникало, стало только удобнее и несколько ускорился процесс бейка.
| 16.01.2016 |
Зачем в 3Ds Max запекать ? Это наверное самая неудачная идея. Это какое-то садо-мазо
"xNormal" - TOP1 (без преувелечения), самая популярная/качественная софтина по запеканию большинства типов карт. Удобная, Простая, Шустрая. К тому-же умеет AO запекать и через CPU и через GPU. Умеет ставить в очередь ряд объектов с разными типами текстур. В наличии - вьюпорт с поддержкой создания Cage-Геометрии. Поддерживает бинарные (сжатые) форматы геометрии. Можно в нее засовывать High-Poly геометрию чистую, без 'нормалей/UV-шек/групп-сглаживания/vertex-color данных', что прилично экономит ОЗУ при просчете. Или наоборот 'подрубить' поддержку этих типов данных.
Относительно AO - там приличный набор настроек по 'чувствительности/точности' к геометрии, если нужно можно настроить так что будет каждую шероховатость/неровность на поверхности отражать в запеченной карте или наоборот что-бы захватывало только солидные элементы/изгибы/углубления.
И да, софтина - бесплатная. К тому-же - по ней уйма неплохих уроков.
Ссылка на сайт - http://xnormal.net/
| 16.01.2016 |
Max2014 промахивается привязка
a.timofeev, когда Maya не имела абсолютно никакого отношения к Autodesk-у, проблема уже была. Да и опять-же - В некоторых других 3D-Пакетах присутствует идентичная проблема с привязками и вьюпортами при гигантских сценах. Это все-же — особенность/ограничения вьюпортов. Кто-то из разрабов эти моменты решил, кто-то забил на это :( В Softimage (XSI когда еще, не-Autodesk), то-же самое - чем дальше объект от центра сцены тем больше вьюпорт допускает погрешностей, сначала снижает качество шейдеров, потом допускает погрешности, потом уже геометрию рвет/клиппит, моргает, привязки слетают или не цепляются.
Ну в общем все кто сталкивался с этим понимает об чем я, Autodesk тут не при чем. Единственный их косяк — когда они делали свой 'Nitrous-Вьюпорт' в Максе и 'VP2.0' в Maya - никак не решили эту проблему.
| 15.01.2016 |
Max2014 промахивается привязка
Это проблема не только Макса но и многих других 3D-Пакетов, если это связано с координатами сцены и единицами измерения то в Maya такая-же ситуация Эти моменты нужно учитывать работая в любом 3D-Пакете. Лично у меня 'подгорает' когда вставляю модельку в сцену через Merge, а она где-то в 50-ти километрах от центра сцены
| 15.01.2016 |
А в обратную сторону можно конвертировать из CoronaMTL в VRayMTL ?
| 14.01.2016 |
vRay. Материал стекла за другим стеклом на рендере чёрный.
Max Depth есть и в Reflection и в Refraction. Стоит учитывать количество поверхностей/переотражений.
Например если стекло с толщиной (объемное всмысле), это уже +2, сам бокал - одна сторона +2, другая сторона +2, отражения в зеркале х2. А если один бокал с другим пересекается это еще х2. Попробуйте сходу влепить ~24 на Max Depth у Reflection и Refraction, и прорендрите этот кусочек, если все впорядке - постепенно снижайте значение пока вновь не станет черным.
Ну и еще, если будете крутить до-упора Max Depth и не будет никакого результата - проверьте настройки рендера в вкладке Global Switches, не стоит ли там ограничение Max Depth.
P.S. Глубину еще и самому СТЕКЛУ и Зеркалу попробуйте поставить тоже, не только материалу Бокалов ! Вообще лучше выставить в материале Exit Color в ярко-красный ну или зеленый цвет что-бы более наглядно видеть нехватку глубины отражений или прозрачности. И понимать какой конкретно материал и объект окрашивает в Exit Color.
| 09.01.2016 |
Не впервые слышу про то как подобные 'танкисты' покупают себе видеокарты Quadro/FirePro, либо им каким-то образом втюхивают такие видео-карты. Ну благо хоть еще не слышал про "Intel Xeon Phi" или "nVidia Tesla" для игры в 'танки' Правда втюхать такую недешевую штуку еще и без выходов под монитор будет конечно сложнее
P.S. Ох, 95% - солидненько. Впрочем может для профи-карт такие показатели это норма, не знаю.
| 09.01.2016 |
irishman, не видел централизованной статистики. Приходилось листать темы где по ~500+ сообщений. Ну так в целом если выше 70% - то это уже считается удачным экземпляром GPU. Ниже 50% - большая редкость.
Как я понял 90% это рай для Оверклокеров Попадаются и исключительно редкие GPU - свыше 100%, например 105%, получается что было допущено минимум погрешностей при отпечатке GPU, были использованы наилучшие сплавы и компоненты внутри GPU. То есть система оценки вообще не зафиксировала утечек питания и погрешностей/отклонений и экземпляр вышел ЛУЧШЕ эталонного образца GPU.
Обидно когда в SLI/Corssfire связке GPU сильно отличаются :
Судя по тестам сторонних людей, в таком раскладе разгон GPU даст меньший прирост FPS в сравнении с точно такой-же SLI-связкой но с одинаковыми ASIC Quality. Как я понял объясняется это тем что одна из видеокарт работает немного медленнее и хуже держит частоты, да и греется больше.
Вообще стоило сразу отметить :
Что речь идет об довольно незначительных отклонениях, которые проявляются в основном при разгоне. То есть вы не получите колоссальную разницу у 40% и 90% GPU 'прямо с коробки', разницу вы заметите только под разгоном. Ну...
Предположим выйдет (числа с потолка взял) : 70 градусов у 90% против 75 градусов у 40%. И в первом случае прирост FPS под идентичным разгоном составит 15% а в втором всего-лишь 5%. При идентичных частотах.
| 09.01.2016 |
Да у любой видеокарты/издателя и модели может быть косяк. От этого никто и никак не застрахован. Можно взять какой-то Manli, Palit, Inno3D и видеокарта проживет 5 лет в разгоне с ацким перегревом мосфитов, видеопамяти и GPU. А можно взять какое-то топовое издание от ASUS/XFX/Sapphire/Gigabyte/MSI и видяха приедет УЖЕ бракованной или сдохнет быстро. Тут как уж повезет, не стоит судить по нескольким случаям.
Даже взяв две абсолютно идентичных модели с одной и той-же партии вы все-равно рискуете получить один удачный экземпляр а один неудачный. Например в котором будет GPU с ASIC Quality низким, 50% к примеру, а другой вариант будет 90%. Соответственно у 50% будет 'volt leak', чуть больший нагрев, более нестабильные частоты, ограниченный разгон... И в целом такой GPU вероятнее всего проживет меньше чем вариант с 90%. Либо приедет видяха которая поработает недельку в нагрузке, и у нее отвалиться GPU (code 43), от неудачного припоя GPU никто не застрахован.
По поводу ASIC Quality, слыхал что все GPU которые получают оценку ниже 50% - считается браком, 50-60% отправляют второсортным вендорам. Все остальное идет топовым вендорам. А экземпляры которые выше 'условной нормы' отсеивают под OC-издания видеокарт. Не знаю так-ли оно, но судя по 'форумам/отзывам/статистике' вполне похоже на правду.
P.S. У меня Palit GTX 570 попался с 45% ASIC Quality, прожила почти 5 лет и отвалился GPU. Неплохо.
| 08.01.2016 |
Bairdesign
Вот на 60-ой странице писал по поводу Crimson-Драйверов/CUDA/OpenCL и совместимостью с nVidia-фичами в играх : http://3ddd.ru/forum/thread/show/vidieokarta/60#post736333
Сам сидел по большей части на nVidia-картах, но на втором игровом компе были и Радеоны.
"Riva TnT2 Tornado" не в счет 8500, Radeon x1600 -> 9600, 3870 -> GTX275, 4890 -> GTX570
Сейчас вот пересел на свежий R9 380x, пока никаких нареканий, ни в 2D/3D софте ни в играх.
| 08.01.2016 |
Bairdesign
Довольно непростой выбор... На стороне 970-ой - широкий выбор моделей от дешевых 'компактных обрубков' до гигантов с тремя 'пропеллерами', широкий ценовой диапазон при идентичных (базовых/заводских) мощностях, а вот 390-ые не отличаются ни широким выбором ни компактностью. Ну и конечно-же у 970-ой 150W вместо 275W у 390, довольно приличная разница по электро-потреблению и соответственно по тепловыделению, собственно по этому у 390 почти все модели идут с 'солидной бандурой' в виде системы охлаждения... Ну и про неполноценные 4GB VRAM у 970-ой уже все давным-давно в курсе, правда большинство современных игр попросту НЕ используют эти медленные 512MB у 970-ой, вместо этого видят лишь 3584MB VRAM. Например в CoD:BO III нельзя выставить некоторые настройки которые требуют минимум 4GB VRAM под FullHD именно из-за этой проблемы. Вообще я-б не сказал что это проблема прям таки критическая, видеокарта все-равно остается одной из самых популярных и достаточно солидных под FullHD. Вот у 390-ой вообще 8GB VRAM на борту. Излишество ? - Да, несомненно под FullHD это излишество. 4к ? Ну так 390-ая не тащит 4к с настройками которые выжрали-бы столько видеопамяти. Тащем-то под 1440 - 8GB все-равно многовато будет. Получается как-бы и много VRAM и с запасом, только толку от этого мало. С другой стороны некоторые современные игры (Far Cry4/Dying Light/CoD:BOIII/AC:Unity/Shadow of Mordor) способны даже в FullHD сожрать почти полные 4GB VRAM. Получается что игры в 2016-2017 по-идее будут жрать и все 6GB под FullHD, только вот останется-ли 390-ая актуальной к таким-то играм...
В общем есть свои достоинства и недостатки у них. В Гугле, Ютубе - есть масса обзоров/сравнений, взвешиваний За и Против, ведь 970 vs 390 - очень популярная тема для обсуждений. Я-бы взял все-таки Radeon R9 390, от любого издателя, так-как по-сути даже у самого дешевого варианта все-равно крутая система охлаждения будет у 390-ой. Да и современные видеокарты (не-референсы) все-равно все поголовно холодные. Ну, исключением может быть разве что 'одно-пропелерный обрубок' 970-ой который может до 87 прогреваться в играх, зато дешевый.
| 08.01.2016 |
Elena.D
3Ds Max использует Видеокарту в основном в Вьюпорте. Частично использует видеокарту еще в MatEditor-е (хардверные DX-шейдеры, навряд ли вам такое нужно). В Slate режиме MatEditor-а видеокарта обрабатывает превью текстурок и процедурных карт и работает над антиалиасингом шрифта а вот в Compact-режиме MatEditor вообще не использует видеокарту и работает полностью через процессор. В UVWEditor-е к примеру видеокарта не работает. А вот инструмент для рисования "Viewport Canvas" - по полной видеокарту использует.
Что относительно V-Ray :
Продакшн "VRayAdv" НЕ использует видеокарту вообще, и работает полностью на процессоре.
Реалтаймовый "VRayRT" МОЖЕТ работать через OpenCL/CUDA (GPGPU-вычисления видеокарты), НО так-же он умеет работать и через процессор. Нужно оно вам или нет - понятия не имею. Я так и не нашел применения VRayRT лично для себя. Он ограниченный, упрощенный, не-стабильный.
OFFTOP
Обязательно учтите что большая часть инструментария 3Ds Max-а работает на одно-потоке (т.е - одном модуле/ядре/потоке). Что немаловажно для комфортной работы. Просто как за пример возьмем : "AMD FX-8350" [4 модуля, 8 ядер, 8 потоков], не идеальный вариант для тяжелых модификаторов и инструментов в 3Ds Max (я не имею ввиду что это плохой процессор для 3DsMax). Но он медленнее будет в сравнении с тем-же "Intel Core-i5 4460" у которого [4 модуля, 4 ядра, 4 потока], и соответственно один поток мощнее. Но все это относительно самого комфорта сборки сцен, моделинга, и работе в целом. V-Ray-ю то по-барабану будет, он использует весь потенциал процессора и все его потоки и эти процессоры +/- сравняются на этапе рендера. Да и к тому-же - если у вас бюджет позволяет брать Core-i5/Core-i7, то можно и не беспокоиться на эту тему, так или иначе одно-поток у Intel будет хорош
IMHO
Для АрхиВиза (если вы умеете грамотно собирать сцены и работать с 3DsMax-ом) можно вообще забить на видеокарту, работать с (BoundingBox-ами/Слоями/Адаптивной-Деградацией/Упрощенными режимами вьюпорта/BackfaceCull-ом/Отключать текстуры, Блики, Переключить ОС в Классический режим оформления). В общем делать все что-бы избежать в какой-то степени нагрузки на видеокарту. По итогу на какой-нить старенькой GTX 560 можно спокойно собирать тяжелые сцены. В таком-то раскладе лучше уж вложиться в процессор. Я вот к примеру пару месяцев работал на "GeForce 8500 256MB" под два FullHD монитора рабочие столы Win7 сжирали ~150/256MB VRAM и ничего страшного, мне хватало остатка памяти на 3Ds Max 2014. Собирал интерьеры по ~20кк трисов (средненькой тяжести интерьеры), да приходилось проделывать все выше-описанное. Сижу сейчас на AMD R9 380x, лично для меня от видеокарты в 50-раз более мощной и жирной - ничего не изменилось, просто можно забить на все эти дела которые приходилось делать, но продолжаю их делать по-привычке
| 08.01.2016 |
Гляжу тут мельком битность шины обсуждают и Radeon-ы...
Ну так вот, по поводу шины, и 380x :
Я не знаю где как но вот в Украине 380x стоит всего на 5% дороже чем 380 (ASUS Strix версии, без разгона), у 300/200 серий используется новая (встроенная) технология по сжатию буфера кадра (без потери качества). Эта технология призвана компенсировать разницу в скорости работы между 384bit и 256bit. Да, судя по некоторым узкоспециализированным тестам 'такие' 256bit все-же уступают 384-ем, но в большинстве игр разницы все-же нету.
Для 3Ds Max, как уже несколько раз писали - хватит и GTX 950, и AMD 370, с головой.
Вот недавно взял себе 380x, очень доволен видеокартой, как в играх так и в 3D/2D софте, боялся что будут проблемы с драйверами - но нет, новая оболочка драйверов и собственно сами новые драйвера "AMD Crimson" пока отрабатывают - идеально. Боялся что не будет совместимости с nVidia технологиями (типа HairWorks/HBAO+/nVidia Godrays и тд), но нет - все есть, все включается и работает на ура. OpenCL в Photoshop/VRay-RT - работает будь-здоров.
Ну а что до CUDA... То, AMD буквально пару месяцев назад начала заниматься мостом между CUDA и OpenCL, и поддержкой портирования CUDA-преложений. Это не означает прямой запуск CUDA-приложений на AMD-картах, но позволяет разработчикам портировать CUDA-приложения под OpenCL а не переписывать их по новой. Ждем, надеемся :)
http://www.3dnews.ru/923649
http://developer.amd.com/tools-and-sdks/opencl-zone/opencl-resources/programming-in-opencl/porting-cuda-applications-to-opencl/
| 04.01.2016 |
У кого такая видеокарта ( ASUS ROG STRIX NVIDIA GeForce GTX970 ), подскажите, хорошая для 3д макса?
xpp_nd_ruphus
P-State (режим производительности) можно контролировать например через утилиту - nVidia Inspector.
http://windowedup.blogspot.com/2014/05/how-to-force-specific-p-state-using.html
Прост в моем случае - 380X, не считает 3Ds Max за 3Д-Приложение (работает в P-8 режиме, Video/2D), и даже и не утруждает себя повышать рабочие частоты. Ну оно то и правильно, 30-40FPS хватает, но если заставить ее трудиться - то комфортнее становиться, потому-что в тех-же условиях я получаю 60-70FPS вместо 30-40.
UPD - про 100-120FPS - я чет загнул.
| 01.01.2016 |