Решил обновить систему, но никак не могу выбрать подходящий процессор.
Я занимаюсь только моделингом, а большинство тестов в интернете затрагивают только скорость просчета. В силу своей специфики 3d Max использует в большинстве случаев только одно ядро для задач моделирования.
Исходя из этого я провел несколько тестов и выявил, что разные процессоры, в силу разных тактовых частот и инструкций, показывают разное время при выполнении задач на одном ядре. Для того, чтобы выяснить какой процессор именно в 3ds max будет быстрее на этом злосчастном одном ядре мне помогли сделать скрипт (спасибо -NiK-
), который задействует одно ядро для копирования большого количества объектов и вычисляет время его выполнения.
Что бы начать тест нужно в процессах максу оставить только одно ядро и запустить скрипт, к результату дописать версию макса и название процессора и частоту.
Очень интересны результаты любых процессоров и производителей.
п.с. во всех бенчмарках время пройзводительности берётся минима по итераций
Цитата Predator84:
стремный какой то тест с копированием.. лучше бы какую то операцию unwrapa на хайпольной модели или детачи/атачи множества элементов.
Ребята, кто Вам мешает создать свой алгоритм который будет отображать правильную работу конкретной программы и за который будет не стыдно - проведите тесты, покажите результаты, не вижу проблем.
зачем создавать бесполезные тесты? во первых это никак не коррелируется с работы пользывателя, и в последних для теста надо знать что тестить, все операций и возможные пермутаций годами придётся бенчмаркить скриптом, а это сфера с субдивисами? серьезно? единственное что оно тестирует это алгоритм turbosmooth на квады, всё .
За грамматику не стыдно, а за тесты стыдно?
Если не хотите принимать участие в бесполезном тесте, то и не принимайте. Участие в тесте на добровольной основе и никто не заставляет делать "бесполезные" тесты. Автору этот тест очевидно полезен, а вот Ваше мнение, скорее всего, бесполезно.
Думаю тут все же справедливее будет так выразиться :
3900/3950 ничем не хуже интела в накидывании Turbosmooth с 8-мью интерациями
Не ровнять же весь инструментарий макса, другие более многофункциональные модификаторы под один лишь Turbosmooth который накидывается на чайник... Было бы круто если в тесте например накидывался бы турбосмус, конвертился бы объект в Editable Poly, потом какой нить Shell -> Lattice, потом накидывался бы Edit Poly например, потом UVW Unwrap и начиналась раскидка UV-Шеллов с включенным поворотом и заполнением дыр. Это был бы более комплексный тест работы проца в максе, IMHO. Занимал бы он конечно не 10 секунд а уже несколько минут как минимум.
Поэтому я и предложил моделерам написать как по их мнению должен выглядеть тестовый скрипт.
Сперва меня попросили написать клонировщик, но чем больше итераций в цикле, тем больше мы проверяем итератор maxscript, чем процедуры моделирования 3дмакса. Тогда я недолго думая написал чайник с турбосмусом. Но это тоже не более показательно, чем бенчмарки.
Ситуацию осложняет тот факт что тестируют разные версии макса. Это полностью обесценивает тесты. Если это цикл с кучей итераций, то циклы maxscript от версии к версии очень по разному себя ведут. Если это процедуры анврапа, то анврап улучшался с 2018 кажется.
Чем больше напихать переменных, которые влияют на результат, тем ненадежней будет этот результат. Только в одной версии макса с одним набором сервиспаков можно получать какие-то надежные результаты. Но на практике здесь этого не добиться.
Ситуацию осложняет тот факт что тестируют разные версии макса.
так можно результаты писать в разные таблицы, согласно версии макса, тогда будет более менее объективное сравнение. Возможно и частота озу будет важным фактором в этих операциях.
Ситуацию осложняет тот факт что тестируют разные версии макса.
так можно результаты писать в разные таблицы, согласно версии макса, тогда будет более менее объективное сравнение. Возможно и частота озу будет важным фактором в этих операциях.
Таблицу разбить можно по версиям, но тогда там будет очень мало результатов. Кроме того на каждой версии еще и сервис-паки разные могут стоять.
А вот что касается памяти, то именно в данном тесте зависимость очень сильно прослеживается. Чем быстрее память и меньше задержки, тем меньше затрачиваемое на выполнение время. У меня на 8700k разница в 0,5 сек между памятью 2666МГц и 3400МГц.
Было бы круто если в тесте например накидывался бы турбосмус, конвертился бы объект в Editable Poly, потом какой нить Shell -> Lattice, потом накидывался бы Edit Poly например, потом UVW Unwrap и начиналась раскидка UV-Шеллов с включенным поворотом и заполнением дыр. Это был бы более комплексный тест работы проца в максе, IMHO. Занимал бы он конечно не 10 секунд а уже несколько минут как минимум.
Двумя руками за такой тест. По крайней мере было бы более показательно. Хотя, учитывая большое влияние кучи факторов вроде частоты памяти и ее таймингов, это тоже не совсем научный подход и совершенно точных результатов от него ждать не придется.
Понятно, что в тестовой лаборатории можно однозначно зафиксировать различия в скорости между разными конфигурациями путем многократного прогона кучи разных тестов. Но проблема в том, что в этих "лабораториях" никому нафиг не сдалось тестировать 3ds max в сотне разных тестов и вариантов конфигураций для выяснения влияния скорости процессора, памяти или тех же задержек памяти. Им проще прогнать Cinebench и Corona benchnmark (причем без AVX, что доставляет при том, что актуальная Corona с AVX). Но к великому сожалению к скорости самой по себе работы в 3ds max, а не к скорости финального просчета (ну или даже промежуточного) это не имеет почти никакого отношения.
Аттач детач на хайполи объектах когда заезжает файл импорта из тысячэлементов или наоборот заезжает одним мешем и на разделить
Challenge accepted. Можете сгенерить нужную сцену с таким стресс-тестом? Только вот аттач скрипты разные по алгоритмам. Но можно найти самый быстрый на скриптспоте и запустить его с таймером.
На счет аттача объектов, как то столкнулся с задачей зааттачить где то 30-40 тысяч объектов в один. Заметил колоссальную разницу между разными скриптами и скоростью. Варьировалась она где то от часу до 20 минут. Только вот в итоге я узнал что в 3Ds Max есть встроенный инструмент для этого, правда он подзапрятан немного... Utilities panel > Utilities rollout > Collapse button
Ну так она справилась за пару минут
Цитата -NiK-:
привести в пример задачу, которая вынуждает его ждать
Раньше когда делал плитку-паркет через Floor Generator всегда накидывал UVW Unwrap и делал "Pack" операцию с поворотом которая занимала порой минут по 10-20 а иногда и вешала Макс. Потом до меня доперло что быстрее поделить объект на разные куски и повторить операцию. А потом уже в корону добавили UVW-Рандомайзер ноду по мэшэлементам.
Но вообще я думаю что тут речь больше об комфорте идет в целом а не про какие то ожидания во время моделинга... Если на каждом этапе происходят какие то микрозатупы, задержки в интерфейске или при работе с разными инструментами, то это не особо приятно. Ну вот взять например даже какую то элементарную вещь "Show End Result", у меня это дело на хоткее стоит, предположить что поверх объекта пару модификаторов и сглаживание накинуто, мне вот было бы не приятно если бы эта функция срабатывала хотя бы с какой то задержкой, пусть даже на 0.2 секунды. Я хочу нажать и мгновенно увидеть результат. А порой сделать это раз эдак 5 подряд туда-сюда.
А вообще, думаю с выходом DDR5, процессоров следующих поколений. Уже разницы никакой не будет АМД там или Интел. Тащем то и уже особо разницы то нету... Ну только если уж сравнивать низкочастотные Зионы и Мейнстрим Десктоп. А так... Скоро для моделлера думаю по барабану будет на чем моделить. Если память без разгона будет выдавать 50+ гб ПСП, контроллеры памяти начнут работать на повышенных частотах, задержки скорее всего снизятся вместе с этим, не исключено что и частоты вырастут с IPC, кэшы быстрее станут. А дальше все в любом случае упрется в тугой 3Ds Max
У меня больше всего времени, не считая рендер, отнимает автосохранение. Даже при том, что в сценах почти ничего из геометрии не остается (все в прокси и контейнерах) сохраняются они довольно долго. И вроде диск супербыстрый и процессор мощный, но "теплый ламповый" 3ds max использует только одно ядро для архивации сцены и сохранения. Просто море времени на это потрачено.
У меня больше всего времени, не считая рендер, отнимает автосохранение
Если речь про автобэкап, то это не просто сохранение сцены (как ни удивительно) и по времени отличается от простого сохранения. Там есть кое какой нюанс касающийся путей к ассетам.
Если речь про сейв то рецепт прост:
Отключить компрессию сцен и сохранять на ссд. Процессор тут вряд ли сильно поможет.
У меня больше всего времени, не считая рендер, отнимает автосохранение
Если речь про автобэкап, то это не просто сохранение сцены (как ни удивительно) и по времени отличается от простого сохранения. Там есть кое какой нюанс касающийся путей к ассетам.
Если речь про сейв то рецепт прост:
Отключить компрессию сцен и сохранять на ссд. Процессор тут вряд ли сильно поможет.
Именно, что автосейв. Все пути ведут на сетевое хранилище ибо работа в группе. Ссд конечно же везде и даже сеть 10ГБ/с, но все равно что автосейв, что сейв - это мучение. Для компрессии очень даже помощник процессор. Отключать ее что-то не очень хочется так, как сильно много места большое количество файлов занимает. Ну да это все оффтоп...