Marvelous Designer 9 cloth simulation on GPU 2080Ti and Intel i9 9900k test
Charlyxxx 3585

Всем привет!

Это мой тест GPU и CPU симуляции в новом Marvelous Designer 9.

Тесты с рендерами скоро будут.

Приятного просмотра!

Комментарии (63)

+2
DoCentttt
А почему ты выбрал симуляцию не нормал, а комплит на цпу? Она ж дольше работает.

ГПУ по умолчанию - она нормал или комплит? Есть инфа по различиям?
0
Charlyxxx
Потому что GPU симулит в максимальном качестве. А на CPU - это и есть complete =) Там одна кнопка и GPU-вычисления позволяют делать все в максимальном качестве.
+2
DoCentttt
Нет.
https://clip2net.com/s/443zewY 

Смотри. В хелпе НЕ указано, что гпу симулит в макс качестве. Как раз цпу комплит - это макс качество и точность.
ГПУ - просто быстрее, и не так отрабатывает колизии, и результат булет отличаться от цпу. Про макс точность ничего не сказано. Возможно это самая низкая точность за счёт скорости. Чудес же не бывает.
https://support.marvelousdesigner.com/hc/en-us/articles/360019874134-Simulation 
+1
Charlyxxx
Хм.. Да, но все-равно сравни скорость =) CPU(Normal) все-равно фигня...

Вот их официальное видео -https://www.youtube.com/watch?v=zUKSOFlCB-w 

Там видно тоже жесть с симуляцией на CPU... Я из-за этого многие моменты со складками решал в Zbrush.

А в проекте, до выхода 9й версии - не мог нормально ткань двигать =)) даже на Normal =) Хотя проц не слабый и уделывает 2*Xeon 2670 по тестам.

Цель видео - показать мощь GPU vs i9 9900K. Показать то, что наконец-то при Particle Distance = 10мм, когда дофига реалистичных складок - можно в реалтайме двигать ткань, без жуткой "пошаговой стратегии", как на CPU =)

И я Marvelous использую для творческой составляющей, а не сверх-физически реальных процессов =) То есть мне достаточно того, что GPU позволяет двигать ткань без проблем и видеть результат, который по тестам - не такой уж плохой =) по крайней мере - я и мой заказчик не заметили разницы.
+2
petrovich23rus
-Даже в их официальном видео сравнивают "нормал" с "гпу" , и даже на нормал видно что ткань на гпу посчиталась проще.
-И официально сказано что гпу использует упрощенные алгоритмы и менее качественные и сказано что для финала юзаите ЦПУ .
-Конечно очень круто что добавили гпу, тут спору нет, это оооооочень круто. Но зачем вы усугубили разницу и преподнесли как чудо непонятно.
-Цитата: "* Currently, GPU simulation only works with Nvidia Graphics cards as we are using Cuda. In addition, the quality of GPU Simulation is not good as CPU simulation due to limitations of GPU simulation. However, you could use GPU simulation for faster draping and switch to CPU simulation for the final result."
+1
Charlyxxx
Потому что для меня это чудо. Особенно, когда заказчик говорит: "ВАУ" и ты такой довольны сдаешь проект за 1 день, а не за неделю =) Кто сталкивался с тем же - поймет меня.

Я никого не пытаюсь переубедить. Я записал тест и да - был не прав насчет того, что утверждал в комментарии о том, что GPU считает в Complete качестве. Но =) Я на практике проверил и мне качество нравится. На глаз там прям и не заметишь. Суть видео, как раз в скорости интерактива, который дает GPU. Ни один CPU такого мне не давал.. даже хваленные Xeon любой марки.. ну не давали... Поэтому мое восхищение остается неизменным. Спорить не вижу смысла. Я понял Вашу точку зрения и не собираюсь с Вами спорить =) Но и меня поймите тоже =)
+1
petrovich23rus
ок ок..
+2
petrovich23rus
это эмоциональная распаковка .. понимаю ))
+1
In-design_shop
" Но зачем вы усугубили разницу и преподнесли как чудо непонятно."
Потому что раньше надо было страдать на CPU, а теперь можно летать на GPU.
0
BlessOd
Это уже трето перетерто, в CLO гпу симка еще полгода назад была.
Все это ваше вау исчезнет в продакшине.
Доцент прав, ГПУ симит в другом режиме и он не учитывает многого, даже толщину ткани и всегда в дефолте 2,5мм использует. В конечном итоге разница большая с CPU особено на сложных моделях.
А если еще и офф форум почитать и сколько косяков с GPU лезет..
а тряпочку покидать да забавно но не более.
0
BlessOd
лучше бы они вместо этой херни завезли нормальных аватаров и решили проблему всасывания ткани в аватар в сложных местах.
0
Charlyxxx
Я обычно просто ручками вытягиваю =) Но с CPU - это была жесть, а с GPU шустро и быстро =) Как раз недавно был проект с кучей сложной брони и тканями...
+1
vladimir.drobzhev90
Помню я мучался в более старой версии марвелоса, где не было переключателя (его же не было?). А потом узнал что нужно принудительно указать видеокарту для марвелоса в панели нвидиа и тогда я офигел от разницы))
0
Charlyxxx
В старых не было =) GPU появилось буквально день назад - официально.
0
BlessOd
в CLO уже полгода есть...доброе утро
0
Charlyxxx
Доброе =) Только мы за Marvelous говорим =)
+1
pluse44
Ну не знаю. Вринцыпе если учесть что для cpu был выбран complete мод,что замедляет просчет и то что i9900k стоит в 2,2 раза меньше чем rtx 2080ti мне разницу пока тяжело оценить
+3
Charlyxxx
Цена отбивается очень быстро. Для заказчиков важна скорость и если Вы ее им даете - то Вам и платят соответственно. Если нет - то меняйте заказчиков. =) хватит работать за копейки и не уважать свой труд. Но опять же =) никто Вас не заставляет покупать эту видеокарту =) Я просто поделился эмоцией =) а там уже решайте сами =)
0
pluse44
За видео огромный респект. С момента анонса md9 каждый день обновлял ютубчик в надежде найти тест от простых пользователей md, а не от рекламы производителей. А тут сразу демонстрация современной rtx 2080ti во всей красе. Просто если подходить к сравнению цена качество, то для меня тема не раксрыта
0
Charlyxxx
Вот поэтому я и записал этот тест. Прям подробные-подробные не люблю делать =) Уже 100 раз писал, что делаю по настроению, по эмоциям, по тому, что лично мне интересно и никогда не гонюсь за просмотрами и так далее =)

Чисто пришла в голову идея записать тест - не вникая во все ньюансы =) поделиться той эмоцией запуска марвы на гпу. Когда блин сидел, долбил ее неделю, чтобы получить приемлемый результат, а тут опа =)) и выходит GPU =) и ты такой опа =) и получаешь этот результат за день =) Если делать подробные тесты - нужно идеально прям разбираться во всех аспектах.. Я же не такой дотошный =) жизни не хватит =) Всегда учу все по возникающей задаче =) Я идеально на все 100% не знаю ни один софт =) И этого не скрываю =) Жизни не хватит, чтобы охватить все интересы, если учить каждый на 100%. Мне это не нужно =) Заказчику тоже =)

По существу =) Был долгий результат на CPU, получил такой же на GPU в 100 раз быстрее. Все довольны =) Мне больше и не нужно. Кто гониться за сверх идеалом - ну =) Марвовцы написали все в инструкции ) терпите недели, годы, столетия =)))))))) пока другие лупят за день практически не отличимый результат на GPU =)

Это как с нуля лепить персонажа и анимировать ручками, когда другие делают уже сканы и анимируют мокапом =)

Тут же ж всем не угодишь =) за чем я никогда не гнался =) Ведь все-равно человек сам лучше для себя сделает определенный тест =)
+1
RAsSsET
Вот на счет заказчиков прям в точку!
Всем бы такой подход)))
0
DenVV
Еще забавно наблюдать как "прожженные" тридешники делаютразличные тесты в рендерах и т.п.на интелах - когда как и новичку понятно, что райзен с этими целями справляется лучше и не мало важно - дешевле :)
+2
olegzao
"прожженные" говорят о INTEL и NVIDIA, потому, что до недавних пор, продукты от AMD часто глючили с прогами по CG, и, 9 Марвелос GPU рендер делает только на картах от NVIDIA
+2
vk3d
Забавно смотреть как новички толком ещё мало что понимая и не имея особого опыта пытаются начать холивар (или просто спор) про Интел/АМД. На протяжении многих лет АМД выдавало ширпотреб дешевый, доступный и глючный, поэтому не удивлюсь, если эти райзены рано или поздно боком встанут своей скоростью и дешевизной, как бывало обычно со всеми процессорами от АМД. Да и вообще RTX пофиг что у тебя, всё равно в сравнении с ГПУ, процессорные рендеры - черепаховые. По ролику, спасибо! Надо поробовать симуляцию, как раз располагаю RTX 2080ti)
0
vladimir.drobzhev90
Марвелос юзает ядра и потоки?
0
Charlyxxx
Да =)
+1
vladimir.drobzhev90
Тогда могу дать тест на 2990wx))
0
Charlyxxx
не ну молодец конечно =) GPU только завезли и конечно процессору за 3000 баксов она проиграет в Marvelous... Тут смысл сравнивать есть в том случае, когда они допилят полную поддержку =) Я сейчас выложил следующий тест и показал там загрузку видюхи... она на 100% даже не загружается.. смысла получается пока никакого что-то говорить =)

Но, не вопрос =) Запиши видео, я в нем ссылку дам на тебя и на твой канал, если он есть =) ну или портфолио =) как благодарность за предоставленный тест. Интересно даже стало =)

Marvelous Designer дают триал на 30 дней. так что думаю проблем записать не будет. Потом сохрани файлик теста и я на своем GPU и CPU тоже запущу. будет интересно всем, думаю.
+1
vladimir.drobzhev90
В том то и дело, что не за 3К баксов. Я бы даже сказал, что этот проц сопоставим по цене с хорошей 2080ti. Думаю 2080ti от хорошего производителя стоит порядка 100К рублей, а этот проц можно взять за 117. Ок, тест сделаю, тоже интересно стало)
0
Charlyxxx
Ну я официальную брал по их цене, что на сайте =) А проц пробил, у нас он стоит 3К ровно =) Реально сделай тест и потом я эту же сцену прогоню у себя =) Просто интересно, насколько они оптимизировали работу процов =) и насколько он быстрее будет, чем i9 9900K =) только не забудь пожалуйста FPS включить. Таймер симуляхи я сам добавлю. Тут уже именно таймер будем сравнивать =) Ну и фпс =) Спасибо.
+1
vladimir.drobzhev90
Так, я добрался до марвелоса, скачал, поставил, мне тут шторку понадобилось сделать, думаю это не очень для обзора, сбрось пожалуйста для чистоты эксперимента свою сцену, в которой ты тестил 9900, я ту же тканьку посимулирую. В чем лучше писать видос?
0
Charlyxxx
Ту сценку со второй части или эту, что в этом видео? =)

Я пишу видео через Bandicam.

Вот настройки пресета видео:
https://clip2net.com/clip/m368953/8795a-clip-51kb.png?nocache=1 
0
vladimir.drobzhev90
По сцене на твое усмотрение, за пресеты спасибо, помню мучался, звук не писался.
0
Charlyxxx
Вот сцена =) Качай =)

Ссылка ->http://bit.ly/2MsWjTa 
0
AzatHai
и как?
0
Charlyxxx
Видос на днях выложу.
+1
Ales522
Я как раз купил себе, 2060
+2
RAsSsET
Кстати непонятно почему в финальные версии пошло такое упрощение для ГПУ.
В одной из беток CLO3D можно было настроить качество симуляции для ГПУ и вот там было реально круто - не уступало CPU. А в релизе все убили... И зачем спрашивается...?
0
Lekson
Совсем недавно поставил себе Quadro 2200 (5 гигов), что интересно на панели Nvidia я не нашел привязки к Максу, Майя есть... В общем, снял игровую GeForce с 8 гигами и поставил эту, разницы не заметил. Обе видяхи тупят во вьюпортах. Особенно когда включен короновский интеракив... Прям беда...
0
Zub0
попробуй выключить интерактив денойзинг - авось поможет
0
Lekson
Так вроде ж он не работет в интерактиве??? У меня галочка отключена в Перформансе
+1
Zub0
в 3 короне вкладка перфоманс/интерактив рендеринг/фаст превью денойз дьюринг рендер ) и вот эта хня жутко тормозит во время интерактива
0
Lekson
У меня отключено...
0
Lekson
Я сейчас поставил галочку туда и включил интерактив, короче он задумался нереально))) Буду перегружать макс.)))
0
Zub0
да, эта галка призвана уничтожить нервы любого человека в попытке выключить интерактив )
0
Lekson
))
+1
Charlyxxx
Сколько не читал на форумах, общался с разными 3dшниками, спецами по ПК - никто не рекомендует Quadro брать =) типа современные GeForce обгоняют их в разы и еще в игры можно играть =)))) Короновский интерактив вроде не тупит на новых версиях. Но да, там постоянно активен NVIDIA AI и его нужно выключить. Вот видос записал =)

Попробуй еще драйвера обнови. Будет шустрее работать.
https://youtu.be/fkGJHcw4tCs 
0
Lekson
Спасибо. Я вот, честно скажу, сидел на GeForce GTX 1070 Ti до Квадры - вообще не чувствую разницы никакой. Обе карты меня не удовлетворяют. Я уже замахался. Не знаю в чем дело - вроде все должно летать - но нет...(
0
Charlyxxx
Летать во вьюпорте? сколько миллионов в сцене? =)
0
Lekson
В том то и дело, что сцены легкие - предметное моделирование. Фигня полигонов..
0
Charlyxxx
Тогда явно какае-то фигня с дровами или проц не вытягивает видюхи. Там таблицу совместимости нужно смотреть. Чтобы весь потенциал раскрывался =)
0
ceem
Ребят что лучше для Marve 2 xeon 2680 или core i7 4790k?
0
Charlyxxx
Однозначно 2*Xeon 2680, так как у них больше ядер и потоков. Судя по тому, как она грузит все ядра - у нее есть многопоточность.
+1
RAsSsET
Если рассматривать сам процесс симуляции - то в теориии да, ядра должна скушать со всеми их потоками.
А вот подготовка к симуляции к сожалению крутится судя по всему на одном ядре (может пару потоков задействует этого ядра). И при изменении параметров ткани подготовка к симуляции может стать адским испытанием на медленном ядре.

Но это только мои наблюдения за поведением марвелуса в диспетчером задач на разных этапах симуляции.
0
Charlyxxx
Я сам запутался =) везде пишут, что multithreading, а даже на 2990wx - 1 fps =) который буду показывать в Part 3 и который предоставил vladimir.drobzhev90 =) Так что лично я жду допилки GPU движка.. надеюсь они не остановятся на том, что есть =)
+1
mercurygroup
отлично
+1
romaschenko
С чем может быть связано: not supported?
GTX 1050
+1
Charlyxxx
Хм, должна поддерживаться. Попробуйте обновить дрова на видео-карту, а уже если не поможет - пишите им в support.
+1
romaschenko
Спасибо. Попробую
+1
romaschenko
Все дело было в дравах. Драйвер от 2018 года не поддерживал эту функцию в марвелоуз. Установлен драйвер 27.08.2019 и все работает.
+1
Charlyxxx
Отлично. Спасибо, что написали =)
0
Ampir8
Приветствую, подскажите пожалуйста, при ГПУ рендере видюха нагружается 2-4% (в диспетчере) а проц на 100% так и должно быть? Я то думал проц будет простаивать а видюха пахать на все 100...
i7 9750h GTX 1660 ti
0
Charlyxxx
Диспетчер задач показывает не адекватную инфу конкретно GPU. Для это задачи лучше использовать статистику из MSI Afterburner или GPU-Z.

Насчет того, что проц. грузится на 100% - это норма, так как GPU и CPU работают в тандеме и раскрывают потенциал друг друга, ну это как я знаю из того, что мне говорили консультанты.

Рендерите чем?